JP2008233672A - Masking sound generation apparatus, masking sound generation method, program, and recording medium - Google Patents

Masking sound generation apparatus, masking sound generation method, program, and recording medium Download PDF

Info

Publication number
JP2008233672A
JP2008233672A JP2007075283A JP2007075283A JP2008233672A JP 2008233672 A JP2008233672 A JP 2008233672A JP 2007075283 A JP2007075283 A JP 2007075283A JP 2007075283 A JP2007075283 A JP 2007075283A JP 2008233672 A JP2008233672 A JP 2008233672A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
sound
masking
signal
scramble
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007075283A
Other languages
Japanese (ja)
Other versions
JP5103974B2 (en )
Inventor
Masahito Hata
Atsuko Ito
Akira Miki
Yasushi Shimizu
晃 三木
敦子 伊藤
寧 清水
雅人 秦
Original Assignee
Yamaha Corp
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04KSECRET COMMUNICATION; JAMMING OF COMMUNICATION
    • H04K3/00Jamming of communication; Counter-measures
    • H04K3/80Jamming or countermeasure characterized by its function
    • H04K3/82Jamming or countermeasure characterized by its function related to preventing surveillance, interception or detection
    • H04K3/825Jamming or countermeasure characterized by its function related to preventing surveillance, interception or detection by jamming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04KSECRET COMMUNICATION; JAMMING OF COMMUNICATION
    • H04K1/00Secret communication
    • H04K1/06Secret communication by transmitting the information or elements thereof at unnatural speeds or in jumbled order or backwards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04KSECRET COMMUNICATION; JAMMING OF COMMUNICATION
    • H04K1/00Secret communication
    • H04K1/10Secret communication by using two signals transmitted simultaneously or successively
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04KSECRET COMMUNICATION; JAMMING OF COMMUNICATION
    • H04K2203/00Jamming of communication; Countermeasures
    • H04K2203/10Jamming or countermeasure used for a particular application
    • H04K2203/12Jamming or countermeasure used for a particular application for acoustic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04KSECRET COMMUNICATION; JAMMING OF COMMUNICATION
    • H04K3/00Jamming of communication; Counter-measures
    • H04K3/40Jamming having variable characteristics
    • H04K3/45Jamming having variable characteristics characterized by including monitoring of the target or target signal, e.g. in reactive jammers or follower jammers for example by means of an alternation of jamming phases and monitoring phases, called "look-through mode"

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for generating a masking sound having sound characteristics most suitable for masking sound characteristic of a sound to be masked. <P>SOLUTION: In a masking sound generation apparatus according to the present invention, a storage means thereof stores a scramble sound signal having been processed in advance so that a meaning as a language can not be decided. In operation mode 1, a CPU analyzes sound characteristics of a noise generated in a sound space, reads a scramble sound signal similar to the analysis result out of the storage means, and outputs it as a masking sound. In operation mode 2, when a user specifies a scramble sound signal directly or when information associated with properties of a person using the sound space etc., is received, the CPU selects and reads a scramble sound signal out of the storage means according to the input contents and outputs it as a masking sound. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、マスキングサウンドを生成する技術に関する。 The present invention relates to a technique for generating a masking sound.

ある音(対象音)が聞こえているときに対象音に近い音響特性(周波数特性など)を持つ別の音(マスキングサウンド)が存在すると、その対象音が聞こえにくくなるという現象が一般に知られており、マスキング効果と呼ばれている。 If another sound (masking sound) exists with acoustic properties (such as frequency characteristics) close to target sound when a sound (target sound) is heard, the phenomenon wherein the target sound is difficult to hear is generally known cage, has been referred to as a masking effect. マスキング効果は、人間の聴覚特性に根ざしたものであり、マスキングサウンドの周波数が対象音の周波数に近いほど、また、マスキングサウンドの音量レベルが対象音の音量レベルに対して相対的に高いほど顕著になることが知られている。 Masking effect, which has rooted in the characteristics of human hearing, the higher the frequency of the masking sound close to the frequency of the target sound and the higher volume level of the masking sound is high relative to the volume level of the target sound pronounced It is known to be in.

このマスキング効果を利用した音響技術は、従来種々提案されており、その例として特許文献1ないし2に開示された技術が挙げられる。 The masking effect acoustic technology using is conventionally proposed, and a technique disclosed in Patent Document 1 or 2 as an example. 特許文献1には、取得した音を所定のフレームに分割し、各フレーム内で時間的に逆に再生することにより音を無意味化しマスキングサウンドを生成する技術が開示されている。 Patent Document 1 divides the acquired sound on a predetermined frame, a technique for generating a meaningless masking sound sound is disclosed by reproducing the temporally reverse within each frame. また、特許文献2には、音信号を複数のセグメントに分割し、この複数のセグメントの順序を入れ替えることにより音を無意味化しマスキングサウンドを生成する技術が開示されている。 Further, Patent Document 2, by dividing the sound signal into a plurality of segments, a technique for generating a meaningless masking sound sound is disclosed by interchanging the order of the plurality of segments.
特願2006−242344号公報 Japanese Patent Application No. 2006-242344 Patent Publication No. 特表2005−554061号公報 JP-T 2005-554061 JP

特許文献1および2に記載の技術によれば、収音した音からリアルタイムにマスキングサウンドを生成するため、音信号の処理に高いパフォーマンスが要求されていた。 According to the technique described in Patent Document 1 and 2, to generate a masking sound in real time from picked-up sound, high performance processing of the sound signal has been required.
本発明は上記の問題に鑑みてなされたものであり、マスキングしたい音の音響特性をマスキングするのに最も適した音響特性を有するマスキングサウンドを生成する技術を提供することにある。 The present invention has been made in view of the above problems, it is to provide a technique for generating a masking sound having the best acoustic properties for masking the acoustic characteristics of the masking want sounds.

本発明に係るマスキングサウンド生成装置は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、音を収音し前記音の音響特性を分析する音響特性分析手段と、前記音響特性分析手段により分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段とを具備することを特徴とする。 Masking sound generating apparatus according to the present invention, by reconstituting dividing the sound signal into predetermined time length of the section, along with storing a plurality of scramble sound signal time series is changed in the sound signal, the scrambling sound storage means for storing acoustic characteristic of each signal, and the acoustic characteristic analysis means for picks up sound analyzing acoustic characteristics of the sound, sound of the acoustic characteristics acoustic characteristics analyzed by the analyzing means and the scramble sound signal and characteristics compared with a predetermined algorithm to determine the scrambled sound signal, characterized by comprising an output means for outputting reads the scrambled sound signal determined the from the storage means.

また、本発明に係るマスキングサウンド生成装置は、上記の構成において、前記出力手段は、前記音響特性分析手段により分析された前記音の音響特性に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力しても良い。 Further, the masking sound generating apparatus according to the present invention, in the above configuration, the output means, on the basis of the acoustic characteristics of the acoustic characteristics analyzed analyzed the sound by means scrambled sound signal read from said memory means it may be output by performing acoustic processing.

本発明に係るマスキングサウンド生成装置の別の構成は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、操作者からマスキングされる音の音響特性に関する情報を受取る受取手段と、前記受取手段により受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段とを具備することを特徴とするマスキングサウンド生成装置。 Another configuration of the masking sound generating apparatus according to the present invention, by reconstituting dividing the sound signal into predetermined time length of the section, along with storing a plurality of scramble sound signal time series is changed in the sound signal a storage means for storing the acoustic characteristics of each of the scrambled sound signal, and a receiving means for receiving information regarding the acoustic characteristics of the sound to be masked from the operator, and acoustic properties that are received by said receiving means of said scrambled sound signal an acoustic properties compared with a predetermined algorithm to determine the scrambled sound signal, said storage means masking sound generating apparatus characterized by comprising an output means for outputting reads the scrambled sound signal determined the from.

また、本発明に係るマスキングサウンド生成装置は、上記の構成において、前記出力手段は、前記受取手段が受取った前記マスキングされる音の音響特性に関する情報に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力しても良い。 Further, the masking sound generating apparatus according to the present invention, in the above configuration, the output means, said receiving means based on information about acoustic characteristics of the sound is the masking received, scrambled sound read out from said memory means it may be output by performing sound processing on the signal.

また、本発明に係るマスキングサウンド生成装置の別の構成は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶する記憶手段と、操作者から前記記憶手段に記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取手段と、前記受取手段により受取られた指示信号が示すスクランブル音信号を、前記記憶手段から読出して出力する出力手段とを具備することを特徴とする。 Another configuration of the masking sound generating apparatus according to the present invention, by reconstituting dividing the sound signal into predetermined time lengths of sections, stores a plurality of scramble sound signal time series is changed in the sound signal storage means for a receiving means for receiving an instruction signal for designating one from the operator of the stored scrambled sound signal in the storage means, the scramble sound signal indicated by the instruction signal received by said receiving means, said storage characterized by comprising an output means for outputting reads from the means.

本発明に係るマスキングサウンド生成装置は、上記のいずれかの構成において、音信号を受取り、該音信号を所定区間に区切って加工することにより、前記各区間の時系列が変更されたスクランブル音信号を生成し、前記記憶手段に記憶させるスクランブル手段とを更に備えていても良い。 Masking sound generating apparatus according to the present invention, in the construction described above, receives a sound signal, by processing by separating the sound signal into predetermined section, scramble sound signal time sequence of the respective sections has been changed generates may comprise further a scrambling means for storing in said memory means.

本発明に係るマスキングサウンド生成装置は、上記のいずれかの構成において、操作者から前記スクランブル音信号が放音される空間の音響特性に関する情報を受取る受信手段を更に有し、前記出力手段は、前記受信手段が受取った空間の音響特性に関する情報に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力しても良い。 Masking sound generating apparatus according to the present invention, in the construction described above, further comprising a receiving means for receiving information regarding the acoustic characteristics of the space in which the scrambled sound signal from the operator is sounded, and the output means, the reception means based on information about acoustic characteristics of the space received, may be output by performing sound processing on the scrambled audio signal read out from said memory means.

本発明に係るマスキングサウンド生成方法は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を記憶装置に複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶段階と、音を収音し前記音の音響特性を分析する音響特性分析段階と、前記音響特性分析段階において分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶装置から該決定したスクランブル音信号を読出して出力する出力段階とを具備することを特徴とする。 Masking sound generating method according to the present invention, by reconstituting dividing the sound signal into predetermined time length of the section, with a plurality of storage in the storage device a scrambling sound signal time series is changed in the sound signal, a storage step of storing the acoustic characteristics of each of the scrambled sound signal, an acoustic characteristic analysis stage which picks up sound analyzing acoustic characteristics of the sound, the acoustic characteristics acoustic characteristics analyzed in the analysis step and the scrambling sound determine the scrambled sound signal and acoustic characteristics of the signal by comparing a predetermined algorithm, characterized by comprising an output step of outputting reads the scrambled sound signal determined the from the storage device.

本発明に係るマスキングサウンド生成方法の別の構成は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を記憶装置に複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶段階と、操作者からマスキングされる音の音響特性に関する情報を受取る受取段階と、前記受取段階において受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶装置から該決定したスクランブル音信号を読出して出力する出力段階とを具備することを特徴とする。 Another configuration of the masking sound generating method according to the present invention, by reconstituting dividing the sound signal into predetermined time lengths of sections, a plurality of scrambling sound signal time series is changed of the sound signal in a storage device stores, a storage step of storing the acoustic characteristics of each of the scrambled sound signal, and a receiving step of receiving information about the acoustic properties of the sound to be masked from the operator, acoustic characteristics and the scrambling received in said receiving step the acoustic characteristics of the sound signal by comparing a predetermined algorithm to determine the scrambled sound signal, characterized by comprising an output step of outputting reads the scrambled sound signal determined the from the storage device.

また、本発明に係るマスキングサウンド生成方法の別の構成は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を記憶装置に複数記憶する記憶段階と、操作者から前記記憶段階において記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取段階と、前記受取段階において受取られた指示信号が示すスクランブル音信号を、前記記憶装置から読出して出力する出力段階とを具備することを特徴とする。 Another configuration of the masking sound generating method according to the present invention, by reconstituting dividing the sound signal into predetermined time lengths of sections, it stores the scrambled sound signal time series is changed of the sound signaling device a storage step for storing a plurality, a receiving step of receiving an indication signal for specifying one of the stored scrambled sound signal in the storage step from the operator, the scrambled sound signal indicated received the instruction signal in the receiving step , characterized by comprising an output step of outputting reads from the storage device.

本発明に係るプログラムは、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、音を収音し前記音の音響特性を分析する音響特性分析手段と、前記音響特性分析手段により分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段として機能させる。 Program according to the present invention, by reconstituting dividing the sound signal into predetermined time length of the section, along with storing a plurality of scramble sound signal time series is changed in the audio signal, each of said scrambled sound signal the storage means for storing acoustic characteristic, acoustic characteristics analyzing means for picks up sound analyzing acoustic characteristics of the sound, the acoustic characteristics of the acoustic properties acoustic characteristics analyzed by the analyzing means and the scramble sound signal determine the scrambled sound signal by comparing a predetermined algorithm, to function as output means for outputting the scramble sound signal determined the from the storage means is read.

本発明に係るプログラムの別の構成は、コンピュータを、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、操作者からマスキングされる音の音響特性に関する情報を受取る受取手段と、前記受取手段により受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段として機能させる。 Another configuration of the program according to the present invention, a computer, by reconstituting dividing the sound signal into predetermined time length of the section, along with storing a plurality of scramble sound signal time series is changed in the sound signal a storage means for storing the acoustic characteristics of each of the scrambled sound signal, and a receiving means for receiving information regarding the acoustic characteristics of the sound to be masked from the operator, and acoustic properties that are received by said receiving means of said scrambled sound signal an acoustic properties compared with a predetermined algorithm to determine the scrambled sound signal, to function as output means for outputting the scramble sound signal determined the from the storage means is read.

また、本発明に係るプログラムの別の構成は、コンピュータを、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶する記憶手段と、操作者から前記記憶手段に記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取手段と、前記受取手段により受取られた指示信号が示すスクランブル音信号を、前記記憶手段から読出して出力する出力手段として機能させる。 Another configuration of the program according to the present invention, computer, by reconstituting dividing the sound signal into predetermined time lengths of sections, stores a plurality of scramble sound signal time series of the sound signal is changed storage means for a receiving means for receiving an instruction signal for designating one from the operator of the stored scrambled sound signal in the storage means, the scramble sound signal indicated by the instruction signal received by said receiving means, said storage to function as output means for outputting the means reads.

本発明に係るコンピュータ読み取り可能な記録媒体は、音信号を所定区間に区切って加工することにより、前記各区間の時系列が変更されたスクランブル音信号を複数記憶するとともに、前記各スクランブルデータを選択的に読み出せるように記憶していることを特徴とする。 A computer-readable recording medium according to the present invention is selected by processing separated sound signal to a predetermined interval, wherein with storing a plurality of scramble sound signal sequence is changed when each section, each of said scrambled data characterized in that it stores as put out to read.

本発明に係るマスキングサウンド生成装置またはマスキングサウンド生成方法またはプログラムまたは記録媒体により、マスキングしたい音の音響特性をマスキングするのに最も適した音響特性を有するマスキングサウンドを生成することができる。 The masking sound generating apparatus or masking sound generation method or a program or a recording medium according to the present invention, it is possible to generate a masking sound having the best acoustic properties for masking the acoustic characteristics of the masking want sounds.

以下、本発明の実施形態について図面を用いて説明する。 Hereinafter will be described with reference to the accompanying drawings, embodiments of the present invention.
(A;構成) (A; Configuration)
(A−1;全体構成) (A-1; Overall Configuration)
図1は、本発明に係るサウンドマスキングシステム1の構成を示す図である。 Figure 1 is a diagram showing a configuration of a sound masking system 1 according to the present invention. 図1に示すように、音響空間20Aには、マイクロホン30が天井から吊り下げられて設置されている。 As shown in FIG. 1, the acoustic space 20A, it is installed microphone 30 is suspended from the ceiling. 音響空間20Bにはスピーカ40が天井から吊り下げられて設置されている。 The acoustic space 20B is installed suspended speaker 40 from the ceiling.

マイクロホン30は、音響空間20Aにおける音(人間の話し声や空調の動作音などの可聴音)を収音してアナログの音信号に変換し、マスキングサウンド生成装置10へ出力する。 Microphone 30 is picked up the sound in the acoustic space 20A (audible sound, such as human speech and air conditioning operation sound) into an analog sound signal, and outputs to the masking sound generating apparatus 10.
スピーカ40は、マスキングサウンド生成装置10からアナログの音信号を受取り、音響空間20Bにおいて再生する。 Speaker 40 receives analog sound signals from the masking sound generation apparatus 10 reproduces the acoustic space 20B.

(A−2;マスキングサウンド生成装置10の構成) (; Construction of the masking sound generating apparatus 10 A-2)
次に、マスキングサウンド生成装置10の構成について図2を参照して説明する。 Will now be described with reference to FIG. 2 the configuration of the masking sound generating apparatus 10. マスキングサウンド生成装置10は、マスキングサウンド(マスカー)を表す音信号を生成する。 Masking sound generating apparatus 10 generates a sound signal representative of the masking sound (masker). 該マスキングサウンドは音響空間20Bにおいて放音され、音響空間20Aにおける会話の内容を他の音響空間20Bのユーザに聞きとられにくくしたり(セキュリティーの保護)、他の音響空間20Bのユーザが音響空間20Aから漏れ聞こえる音により会話が妨害されたり作業の集中を乱されたりしないようにする(騒音のマスキング)。 The masking sound is sounded in the acoustic space 20B, (protection of security) user hears taken difficult or contents other acoustic space 20B of the conversation in the acoustic space 20A, the user acoustic space of another of the acoustic space 20B conversation by leakage hear sound from 20A is prevented or disturbed the concentration of work or is disturbed (masking noise).

CPU(Central Processing Unit)100は、記憶部200に格納されている各種プログラムを実行することにより本発明に特徴的な動作を行ったり、マスキングサウンド生成装置10の各部の動作を制御したりする。 CPU (Central Processing Unit) 100 is or performs operations characteristic to the present invention by executing various programs stored in the storage unit 200, and controls the operation of each unit of the masking sound generating apparatus 10.

音声入力部300は、アナログ/デジタル(以下、「A/D」と略記する)コンバータ310と入力端子320とを有する。 Voice input unit 300 includes an analog / digital (hereinafter, abbreviated as "A / D") converter 310 and the input terminal 320. 入力端子320にはマイクロホン30が接続されており、マイクロホン30により生成された音信号は、入力端子320を介してA/Dコンバータ310へ入力される。 The input terminal 320 is connected a microphone 30, a sound signal generated by the microphone 30 is input through an input terminal 320 to the A / D converter 310. A/Dコンバータ310は、マイクロホン30から受取った音信号にA/D変換を施し、デジタルの音信号をCPU100へ出力する。 A / D converter 310 performs A / D conversion on the sound signal received from the microphone 30, and outputs the digital sound signal to the CPU 100.

音声出力部400は、D/Aコンバータ410とアンプ420と出力端子430とを有する。 The audio output unit 400, and an output terminal 430 and the D / A converter 410 and an amplifier 420. D/Aコンバータ410は、CPU100から受取った音信号に対して、D/A変換を施すことによってアナログの音信号へ変換する。 D / A converter 410, the sound signal received from the CPU 100, converts the analog sound signal by performing D / A conversion. アンプ420は、D/Aコンバータ410から受取った音信号の振幅(マスタボリューム)を最適な値に調整して、マスキング効果が最大となるように制御する。 Amplifier 420 adjusts the D / A converter of the sound signal received from the 410 amplitude (master volume) to the optimum value, and controls so that the masking effect becomes maximum. 音信号の増幅率は、後述する操作部500からの信号に基づいてCPU100により制御される。 Amplification factor of the sound signal is controlled by the CPU100 based on the signal from the operation unit 500 to be described later. 出力端子430はスピーカ40と接続されており、音信号はスピーカ40へ出力され、音響空間20Bにおいてマスキングサウンド(マスカー)として放音される。 The output terminal 430 is connected to a speaker 40, a sound signal is output to the speaker 40, is emitted as a masking sound (masker) in the acoustic space 20B.

操作部500はタッチパネルを有する入力装置であり、マスキングサウンド生成装置10のユーザにより該タッチパネルが押下された場合に、操作内容をCPU100へと出力する。 Operation unit 500 is an input device having a touch panel, when the touch panel is pressed by a user of the masking sound generation apparatus 10, and outputs the operation content to the CPU 100. 図3は、操作部500の外観を示した図である。 Figure 3 is a diagram showing the appearance of the operation unit 500. 操作部500のタッチパネルは、動作モード選択部510、音信号選択部520、性別選択部530、年齢選択部540、言語選択部550、音響空間選択部560、および音量レベル選択部570を有する。 The touch panel of the operation unit 500 has an operation mode selection unit 510, the sound signal selection unit 520, sex selection unit 530, the age selector 540, the language selecting section 550, an acoustic space selection unit 560 and the sound volume level selector 570,.

ユーザによりタッチパネル上の特定の領域が押下されると、該領域は同図に例示されているように選択された領域が網掛け表示となると共に、対応する項目が選択されたことを示す信号がCPU100に出力される。 When a particular region on the touch panel is pressed by the user, the region along with selected areas as illustrated in the figure the shaded, a signal indicating that the corresponding item is selected It is output to the CPU100. なお、音量レベル選択部570においては、大きい数字ほど大きい音量レベルが対応付けられている。 Note that in the volume level selection unit 570 is greater volume level larger numbers are associated. 以下ではそれらの信号を、それぞれ動作モード選択情報、音信号選択情報、性別選択情報、年齢選択情報、言語選択情報、音響空間選択情報、および音量レベル選択情報と呼ぶ。 These signals in the following, referred to the operation mode selection information respectively, the sound signal selection information, gender selection information, age selection information, the language selection information, the acoustic space selection information, and the volume level selection information. また、性別選択情報、年齢選択情報、言語選択情報、および音響空間選択情報を条件設定情報と総称する。 In addition, gender selection information, collectively referred to as age selection information, language selection information, and the acoustic space selection information and the condition setting information.

再び図2において、光ディスク再生装置600は、装着された光ディスクから記録されているデータを読み出す装置である。 2 again, the optical disk reproducing apparatus 600 is a device for reading data recorded from the loaded optical disk. 読み出されたデータは、CPU100へ出力される。 The read data is output to the CPU 100.

記憶部200は、ROM(Read Only Memory)210およびRAM(Random Access Memory)220を有する。 Storage unit 200 includes a ROM (Read Only Memory) 210 and RAM (Random Access Memory) 220.
ROM210は、本発明に特徴的な機能をCPU100に実行させるための制御プログラムやデータが格納されている。 ROM210 control programs and data for executing the characteristic function to CPU100 the present invention is stored.
RAM220は、各種の記憶領域を有し、CPU100によってワークエリアとして利用される。 RAM220 has various storage areas, CPU 100 by being used as a work area. また、RAM220は、音声入力部300から受取った各音信号を所定時間分記憶可能な音信号記憶領域を有する。 Further, RAM 220 includes a sound signal storage region each sound signal possible predetermined time stored received from the voice input unit 300. 前記所定時間は長時間であるほど好ましく、マスキングサウンド生成装置としては高い性能を有するが、ハード資源の容量や性能により上限値があるため、本実施形態においては一例として180秒に設定した。 Preferably as the predetermined time is a long time, has a high performance as a masking sound generating apparatus, since there is an upper limit value by the capacity and performance of hardware resources, was set to 180 seconds as an example in the present embodiment. また、RAM220は、マスキングサウンドの音信号生成に係るパラメータなど各種のデータを記憶する。 Further, RAM 220 stores various data such as parameters related to a sound signal generation of the masking sound.
以上に説明した各ユニットは、バス700を介して接続されており、互いにデータの授受を行う。 Each unit described above is connected via a bus 700, and exchanges data with each other.

(A−3;制御プログラムおよびデータ) (A-3; a control program and data)
次に、ROM210に記憶されている制御プログラムについて説明する。 Next, a description will be given of a control program stored in the ROM 210. CPU100は、制御プログラムを実行することにより、以下に説明する処理を始めとする各種の処理を実行する。 CPU100 executes the control program, executes various processes including the process described below.

まず、「音響特性分析処理」について説明する。 First, a description will be given "acoustic characteristic analysis process". 音響特性分析処理とは、入力された音信号を所定長の区間に分割し、生成された各断片(以下、フレームと呼ぶ)における話速、フォルマント、および周波数特性を分析する処理である。 The acoustic characteristics analysis process, by dividing the input sound signal to a predetermined length of interval, the fragments generated (hereinafter, referred to as frame) speech speed in a process of analyzing formants, and frequency characteristics.

まず、話速の分析について説明する。 First, a description will be given of the analysis of the speech speed. 本実施形態において、「話速(発話速度)」とは、音声が発せられるときの速さであり、単位時間あたりの音節数などで定義される。 In the present embodiment, the "speech rate (speech rate)", a speed at which the sound is generated, is defined by such as the number of syllables per unit time. ここで音節とは、一定の声の長さを持つ音素(例えば母音)のまとまり、または一定の声の長さを持つ音素の前および/または後に非常に短い音素(例えば子音)を従えるまとまりを意味する。 Here syllable and the cohesiveness of subdue a phoneme having a length of certain voice (e.g., vowels) chunks or certain voice very short phoneme (e.g., consonant) before and / or after the phoneme having a length of, means. 音響特性分析処理において、CPU100は、受取った音信号の各フレームについて、音信号の時間軸波形を生成し、当該時間軸波形のエンベロープ(包絡線)にスムージング処理を施す。 In acoustic characteristics analysis process, CPU 100, for each frame of the received sound signal to generate a time-axis waveform of the sound signal is subjected to smoothing processing in the envelope (envelope) of the time axis waveform. そしてスムージング処理された波形から各音節を構成する波形のピーク位置をフレームごとに検出して、ピーク数を計測する。 Then a peak position of the waveform constituting each syllable from smoothed waveform detected for each frame, measures the number of peaks. その後、当該ピーク数を音節数とし、音節数をフレーム長で除した単位時間あたりの音節数を話速として算出する。 Then, to calculate the number of the peaks and the number of syllables, the number of syllables per unit obtained by dividing the time the number of syllables in the frame length as a speech speed. ここでピークとは、各音節を構成する波形においてレベルが最大の箇所を言う。 Here, the peak level in the waveform constituting each syllable refers to the maximum point. 話速はフレーム毎に異なるが、CPU100は、上記フレームごとにその時点での話速を分析し、それらの値の平均値、該平均値のフレーム間のばらつきである標準偏差σを算出し出力する。 Speech rate is different for each frame, CPU 100 analyzes the speech speed at that time for each of the frames, calculates the average value of these values, the standard deviation σ is a variation between frames of the average value output to.

次に、フォルマントの分析について説明する。 Next, a description will analyze formants. フォルマントとは、音声のスペクトル包絡上で特定の周波数領域にエネルギーが集中して生じる山である。 Formants are mountain resulting concentrated energy in a specific frequency range on the spectrum envelope of speech. これは、人間の声などが固有に持っている周波数スペクトル(倍音成分の分布パターン)であり、声の高さや強さに依存しないという特徴を有する。 This is the frequency spectrum, such as the human voice has a unique (distribution pattern of harmonics), has a characteristic that does not depend on the height and intensity of the voice. フォルマントを分析することで、話者の性別、年齢、使用言語などを読み取ることができることが知られている。 By analyzing the formant, speaker of gender, age, it is known that it is possible to read and use language. 音響特性分析処理において、CPU100は、受取った音信号の各フレームにおける波形をフーリエ変換する。 In acoustic characteristics analysis process, CPU 100 is a Fourier transform of the waveform in each frame of the received sound signal. そしてCPU100は、フーリエ変換により得られた振幅スペクトルの対数を求め、それをフーリエ逆変換して各フレームのスペクトル包絡を生成する。 Then CPU100 determines the logarithm of the obtained amplitude spectrum by the Fourier transform, to generate a spectral envelope of each frame it in the inverse Fourier transform. そしてCPU100は、得られたスペクトル包絡の低い周波数から第1フォルマントの周波数および第2フォルマントの周波数、第3フォルマントの周波数を抽出する。 Then CPU100, the frequency of the frequency and the second formant of the first formant from low spectral envelope obtained frequency, extracts a frequency of the third formant. なお、本実施形態においては、第1ないし第3フォルマントの周波数を抽出するが、そのうちいずれか1つまたは2つ、または第4フォルマント以降について分析しても良い。 In the present embodiment, to extract the frequency of the first to third formant, of which one or two or, or may be analyzed for the fourth and subsequent formants.

次に、周波数特性の分析について説明する。 Next, a description for the analysis of the frequency characteristics. CPU100は、受取った音信号をフレームごとに読み出し、フーリエ変換により各フレームの周波数領域のスペクトルデータを生成する。 CPU100 is a sound signal received read for each frame, and generates the spectral data in the frequency region of each frame by the Fourier transform. 生成されたスペクトルデータからは、音信号が表す音のピッチなどを読み取ることが出来る。 From the generated spectral data, it can be read and pitch of the sound represented by the sound signal.
以上が、音響特性分析処理である。 The above is the acoustic characteristics analysis process.

次に、音信号の「リバース処理」について説明する。 Next, a description will be given of "reverse process" of the sound signal. リバース処理において、CPU100は、受取った音信号の各フレームを一旦時間軸領域の信号に変換する。 In reverse process, CPU 100 converts once signal in the time axis domain of each frame of the received sound signal. そして、該音信号の各フレームを時間軸において逆から読み出し、各音信号を新たな音信号へ変換する。 Then, read from the reverse in the time axis of each frame of the sound signal, converts each sound signal into a new sound signal. 本処理は、すなわち元の音信号が生成された順序とは逆の時間的順序で古いデータから読み出して新たな音信号を生成する処理である。 This process, i.e. a process for generating a new sound signal is read out from the old data in reverse chronological order of the order in which the original sound signal is generated. このリバース処理により生成された音信号からは、処理前の音信号に含まれていた内容を理解することはできない。 From this reverse process the sound signals generated by can not understand what was included in the sound signal before processing.

次に、音信号の各フレームの「窓掛け処理」について説明する。 Next, a description will be given of "windowing process" of each frame of the sound signal. 窓掛け処理とは、内容が連続していないフレーム同士を接続する場合に、その音がスムーズに移行するように接続部分の波形を変換する処理である。 The windowing process, to connect the frames to each other the contents are not consecutive, a process for converting the waveform of the connecting portion so that the sound moves smoothly.
具体的には、CPU100は、例えば三角関数などからなる「整形関数」を各フレームの音信号に乗算することにより、各フレームの頭部では滑らかに立ち上がるように、そして各フレームの尾部では滑らかに立ち下がるように整形する。 Specifically, CPU 100 is made of, for example trigonometric function "shaping function" by multiplying the sound signal of each frame, so as to rise smoothly the head of each frame, and smooth in the tail of each frame shaping as falls. 音響処理により連続した音信号が複数のフレームに分割され、元の音信号と異なる順序で接続された場合には、その接続部分においてクリックノイズが発生することがあるが、この窓掛け処理により該ノイズは除去される。 Sound signals continuously by sound processing is divided into a plurality of frames, when connected in an order different from the original sound signal, it is possible to click noise is generated at the connecting portion, said by the windowing processing noise is removed.

次に、ROM210に記憶されているデータについて説明する。 Next, a description will be given of the data stored in the ROM 210.
まず、「フレーム長選択テーブル」について説明する。 First, a description will be given of "frame length selection table". 図4は、フレーム長選択テーブルの1例を示した図である。 Figure 4 is a view showing an example of a frame length selection table. フレーム長選択テーブルにおいては、上述した話速の範囲に対してフレーム長が対応付けられている。 In the frame length selection table, the frame length is associated with respect to the scope of the speech speed as described above. 例えば、話速7.5以上12.5未満〔秒−1 〕に対して、フレーム長の値0.10〔秒〕が対応付けられている。 For example, for less than 12.5 speaking rate 7.5 or more [sec -1], the value of the frame length 0.10 (seconds) is associated. ここで、1フレーム長は、話速が各話速の範囲の中間の値であるときの1音節の時間と同程度に設定した。 Here, 1 frame length, the speech rate is set to a time comparable to the one syllable when an intermediate value in the range of each speech rate. すなわち、話速10〔秒−1 〕では1音節の発話速度は0.10秒であり、話速10〔秒−1 〕が含まれる話速7.5以上12.5未満の範囲に対応するフレーム長をこの1音節の発話時間(0.10秒)に設定した。 That is, the utterance speed of one syllable in the speech speed 10 [sec -1] is 0.10 seconds, corresponding to a range of less than speech speed 7.5 to 12.5 containing the speech speed 10 [sec -1] the frame length is set to this one syllable utterance time (0.10 seconds). これは、1フレーム長が1音節より極端に短い時間の場合には、1音節が複数フレームに分割され、各フレームをリバース再生しても元の音節として認識されるおそれがあり、1フレーム長が1音節より極端に長い時間の場合には、各フレームをランダムに再構成しても1フレーム内の各音節がそのまま認識されるおそれがあるからである。 This is 1 when the frame length is extremely shorter than one syllable, the syllable is divided into a plurality of frames, there is a possibility that even if reverse play each frame is recognized as the original syllable, one frame length there the case of extremely long time than one syllable is because there is a possibility that each syllable in one frame be re-configured each frame randomly is recognized as it is.

次に、「スクランブル音信号」について説明する。 Next, a description will be given of "scramble sound signal". スクランブル音信号とは、人間の音声をスクランブル(無意味化または理解不能化)した音信号である。 The scrambled sound signal, a human scrambled audio (meaningless or unintelligible reduction) and sound signal. 具体的には、人間の音声を収音して対応する波形データを生成し、所定時間(例えば100ミリ秒)ごとに複数のフレームに分割し、それらを元の音声とは異なる順序で組み合わせて新たに生成した音信号である。 More specifically, the pick up human speech to generate a corresponding waveform data is divided into a plurality of frames at predetermined time intervals (e.g. 100 ms), in combination in a different order from those of the original speech it is a sound signal that is newly generated. 本実施形態においては、複数のスクランブル音信号(スクランブル音信号1、2、3…)が、後述する初期設定処理においてROM210に格納される。 In the present embodiment, a plurality of scrambling sound signal (scrambled sound signal 1, 2, 3, ...) is stored in the ROM210 in the initial setting process described later. なお、人間は、このスクランブル音信号から言語としての意味を理解することはできない。 In addition, human beings, it is not possible to understand the meaning of the language from the scramble sound signal.
また、ROM210には、人の音声の音信号以外に、広帯域ノイズの一例としてホワイトノイズの音信号も記憶されている。 Further, the ROM 210, in addition to the sound signal of the human voice, is also stored sound signal white noise as one example of a broadband noise. なお、ホワイトノイズとは、測定周波数帯域において一様なパワースペクトル密度を有する雑音である。 Note that the white noise is a noise having a uniform power spectral density at the measurement frequency band.

次に、「スクランブル音信号選択テーブル」について説明する。 Next, a description will be given of "scramble sound signal selection table". 図5に示すように、スクランブル音信号選択テーブルにおいては、ROM210に格納されたスクランブル音信号の各々を特定可能なスクランブル音信号番号に対して、その音の発音体属性情報、および音響特性情報が書き込まれている。 As shown in FIG. 5, in the scrambled sound signal selection table, for each possible specific scrambling sound signal number of the stored scrambled sound signal to ROM 210, sounding body attribute information of the sound, and acoustic characteristic information It is written in. 発音体属性情報には、そのスクランブル音信号の元となった音声を発音した人の性別、年齢、言語、および名前が含まれる。 The sounding body attribute information, people of sex that was pronounced a voice that is the source of the scrambled sound signal, included age, language, and name. 例えば、スクランブル音信号1は、30歳の日本人男性である「Aさん」により吹き込まれた音声から生成されたものである。 For example, scrambled sound signal 1, are the ones that have been generated from the speech that was blown by "Mr. A", which is a 30-year-old Japanese man. 音響特性情報には、該スクランブル音信号の話速、フォルマント、および周波数特性に関するデータが含まれる。 The acoustic characteristic information, speech speed of the scrambled sound signal includes the data concerning the formants, and frequency characteristics. なお、フォルマント、および周波数特性の項目には、フォルマント、および周波数特性のデータを一意に識別するためのファイル名が書き込まれており、データは別途ROM210に書き込まれている。 Incidentally, formants, and the item of frequency characteristics, formant, and has the data of the frequency characteristic is uniquely file name to identify the written data is separately written to ROM 210.

(B;動作) (B; operation)
次に、本実施形態の動作について説明する。 Next, the operation of the present embodiment.
(B−1;初期設定処理) (B-1; initial setting process)
CPU100は、マスキングサウンドを生成の前に初期設定処理を行う。 CPU100 performs the initial setting process before generating a masking sound. 図6は、初期設定処理におけるCPU100が行う処理の流れを示したフローチャートである。 Figure 6 is a flowchart showing the flow of processing CPU100 in the initial setting process is performed.

まず、ステップSA100において、CPU100は音信号を受信する。 First, in step SA100, CPU 100 receives a sound signal. ここで、CPU100が音信号を受信する方法は2つある。 Here, the method for receiving the CPU100 Gaoto signal twofold. 1つは、ユーザがマイクロホン30を介して音声を吹き込み、CPU100は、音声入力部300を介して音信号を受取る方法である。 One blowing voice user through a microphone 30, CPU 100 is a method for receiving a sound signal through the audio input unit 300. もう1つの方法は、音信号が書き込まれた光ディスクから光ディスク再生装置600により音信号を読み出す方法である。 Another method is a method of reading a sound signal by the optical disc reproducing apparatus 600 from the optical disk which the sound signal is written. この場合、光ディスクとしては、例えば既製品として販売されている光ディスクでもよいし、ユーザが予め音信号を光ディスクに書き込んだものでも良い。 In this case, as the optical disc, for example, may be an optical disk which is sold as a ready-made, the user may be one written in advance sound signal on the optical disc.

ユーザは、上記いずれかの方法で音信号を入力し終えると、該音信号に関する発音体属性情報(該音声を発音した人の性別、年齢、言語、および名前)について図示せぬ入力手段を介して入力する。 When the user has finished enter the sound signal by any of the methods, via the input means (not shown) sounding body attribute information relating to the sound signal (a person's gender, which was pronounced the voice, age, language, and name) for the enter Te. CPU100は、受取った音信号と発音体属性情報とを、相互に関連付けて一旦RAM220に書き込む。 CPU100 writes the received sound signals and the sounding body attribute information, once in association with one another RAM 220.

本動作例においては、前者の方法すなわちマイクロホン30を介して音声を入力する方法と、後者の方法すなわち光ディスクなどの記憶媒体から音信号を読み出す方法を併用する。 In this operation example, in combination with a method of inputting voice through the former method i.e. microphone 30, a method of reading a sound signal from a storage medium such as the latter method i.e. the optical disk. 前者の方法で入力される音信号は、以下の通りである。 Sound signals input by the former method is as follows. スクランブル音信号1および2の元となる音信号として、それぞれ30歳の日本人男性である「Aさん」、25歳の日本人女性である「Bさん」の発音を表す音信号が入力される。 As the scramble sound signal 1 and 2 of the underlying sound signal, a Japanese man of 30 years old, respectively, "Mr. A", the sound signal representing the sound of a 25-year-old Japanese woman of "B" is input . また、スクランブル音信号3の元となる音信号として、平均年齢25歳の日本人の男女5人からなる「Cグループ(5人)」の発音を表す音信号が入力される。 In addition, as a sound signal, which is the basis of the scramble sound signal 3, a sound signal representing the pronunciation of which consists of men and women five people of average age 25-year-old Japanese "C group (5 people)" is input.

また、後者の方法で入力される音信号は以下の通りである。 Further, the sound signal inputted by the latter method is as follows. スクランブル音信号4の元となる音信号として、10歳の日本人の男児の発音を表す音信号が入力される。 As a sound signal, which is the basis of the scramble sound signal 4, a sound signal representing the boys of pronunciation of the 10-year-old Japanese is input. また、スクランブル音信号5の元となる音信号として、30歳のイギリス人男性の音から生成された音信号が入力される。 In addition, as a sound signal, which is the basis of the scramble sound signal 5, the sound signal that is generated from the British men sound of the 30-year-old is input.

なお、入力すべき音信号は、各ユーザが音響空間20Aを利用する頻度、および音響空間20Aにおいて使用される言語の種類を参考にして選択すれば良い。 Incidentally, the sound signal to be input, the frequency each user utilizes the acoustic space 20A, and the type of language used in the acoustic space 20A may be selected with reference. 例えば、音響空間20Aが、「Aさん」や「Bさん」や「Cグループ」により頻繁に利用されたり、頻繁に英語による会議が行われるような場合には、上述のようにそれら頻繁に利用する人の音声や使用言語の音信号を入力しておくと良い。 For example, the acoustic space 20A is, or is frequently utilized by "Mr. A" and "B" and "C Group", if frequently as meeting in English is performed, use them frequently as described above a good idea to enter the sound signal of the human voice and the language used to be.

次に、ステップSA110において、CPU100は、音響特性分析処理を行う。 Then, in step SA110, CPU 100 performs the acoustic characteristics analysis process. 具体的には、CPU100は、RAM220に書き込まれた各音信号において、話速、フォルマント、および周波数特性を分析し、その分析結果である音響特性情報を各分析対象となった音信号と関連付けて一旦RAM220に書き込む。 Specifically, CPU 100, in each sound signal written into RAM 220, speech speed, formant, and the frequency characteristics are analyzed in association with the sound signal becomes the analyte acoustic characteristic information which is the analysis result once written to the RAM220.

ステップSA120において、CPU100は、ROM210に格納されたスクランブル音信号選択テーブルの更新を行う。 In step SA120, CPU 100 updates the stored scrambled sound signal selection table in ROM 210. 具体的には、CPU100は、各音信号に関する発音体属性情報と音響特性とをRAM220から読み出し、スクランブル音信号選択テーブルに書き込む。 Specifically, CPU 100 reads out the sound producing body attribute information and the acoustic characteristics relating to each sound signal from the RAM 220, and writes the scrambled sound signal selection table. その際、図5に示すように、スクランブル音信号1、2、3、4、および5の元となる音信号に関する発音体属性情報と音響特性は、それぞれスクランブル音信号1、2、3、4、および5の欄に書き込む。 At this time, as shown in FIG. 5, the scrambled sound signal 1, 2, 3, 4, and sounding body attribute information and the acoustic characteristics relating to the underlying sound signal 5 is scrambled sound signal 1,2,3,4, respectively , and write to the 5 column.

ステップSA130において、CPU100は、音信号スクランブル処理を行う。 In step SA130, CPU 100 performs sound signal scrambling. 図7は、音信号スクランブル処理の流れを示すフローチャートである。 Figure 7 is a flowchart showing the flow of the sound signal scrambling. また、図8は、音信号スクランブル処理に伴う音信号の波形を示した図である。 8 is a diagram showing the waveform of the sound signal according to the sound signal scrambling.

図7のステップSB100において、CPU100は、RAM220に書き込まれた音信号を複製する。 In step SB100 in FIG 7, CPU 100 replicates the audio signal written in the RAM 220. 本動作例においては、CPU100は、音信号を3つに複製し、複製された音信号をRAM220に書き込む。 In this operation example, CPU 100 replicates the sound signal into three, and writes the copied sound signals to the RAM 220. なお、以下ではこれらの音信号を音信号A、B、およびCと呼ぶ。 Incidentally, the sound signal A of these sound signals in the following referred to as B, and a C. 以下に説明するステップSB110ないしステップSB150は、音信号A、B、およびCのそれぞれについて行われ、それらの音信号は互いに異なる音信号へと変換される。 Step SB110 to step SB150 described below, the sound signal A, carried out for each of the B, and C, their sound signal is converted into a different sound signals. 以下の処理は、3つの音信号について同時に実行しても良いし、順次実行しても良い。 The following processes may be performed simultaneously for three sound signals may be sequentially executed.

ステップSB110において、CPU100は、音信号のフレーム化を以下のように行う。 In step SB 110, CPU 100 is carried out as follows framed sound signals. すなわち、CPU100は、当該音信号の話速に関する情報をRAM220から読み出す。 That, CPU 100 reads the information about the speech speed of the sound signal from the RAM 220. そしてCPU100は、ROM210に記憶されているフレーム長選択テーブルにおいて、平均値、平均値+σ、平均値−σの値に対応付けられたフレーム長を読み出し、RAM220に書き込まれた音信号A、B、およびCを読み出したそれぞれのフレーム長で分割し、分割した結果生成されたフレームをRAM220に書き込む。 Then CPU100, in the frame length selection table stored in the ROM 210, the average value, the average value + sigma, reads the frame length associated with the value of the average value - [sigma], RAM 220 written sound signals A, B, and dividing the in each frame length read C, writes the divided result generated frame to the RAM 220. なお、図8の(a)―A、(a)―B、および(a)―Cには、音信号A、B、およびCが異なるフレーム長で分割された状況が示されている。 Incidentally, (a) -A in FIG. 8, the (a) -B, and (a) -C, the sound signals A, B, and C have shown the situation where divided in different frame length.

ステップSB120において、CPU100は、RAM220に書き込まれた音信号のフレームの各々について、上述したリバース処理を行う。 In step SB120, CPU 100, for each frame of the written sound signal to RAM 220, performs the above-described reverse operation. リバース処理がなされた結果、音信号A、B、およびCの各フレームは、それぞれ図8の(b)―A、(b)―B、および(b)―Cに示されるようにフレーム内で時間的に逆に倒置されたデータに変換される。 Results reverse process is performed, the sound signals A, B, and C each frame, respectively, of FIG 8 (b) -A, in the frame as shown in (b) -B, and (b) -C It is converted temporally inverted data inverted.

ステップSB130において、各フレームには窓掛け処理が行われる。 In step SB130, and each frame windowing process is performed. その結果、各フレームの頭部および尾部に対応する部分の波形が整形される。 As a result, the waveform of the portion corresponding to the head and tail of each frame is shaped.
ステップSB140において、CPU100は、各音信号についてその複数のフレームの順序をランダムに並べ替える(図8(c)参照)。 In step SB140, CPU 100 rearranges the order of the plurality of frames randomly for each sound signal (see FIG. 8 (c)).
ステップSB150において、CPU100は、並べ替えられたフレームの音信号をつなぎ合わせ、新たな音信号を生成する。 In step SB150, CPU 100 is joined sound signals of frames sorted to generate a new sound signal.
ステップSB160において、CPU100は、ステップSB110ないし150においてそれぞれ別個に処理がなされた音信号A、B、およびCをミキシング処理し、スクランブル音信号を生成する(図8(d)参照)。 In step SB160, CPU 100, the step SB110 to sound signal separately processing has been performed, respectively, in 0.99 A, B, and C and the mixing process to generate a scrambled sound signal (see FIG. 8 (d)).

以上の処理により生成されたスクランブル音信号は、以下のような特徴を持つ。 Scrambled sound signal generated by the above process has the following features. すなわち、生成されるスクランブル音信号においては、元の音信号の音量レベルの変動幅が小さくなり、平均的な音量レベルに収束する。 That is, in the scrambled sound signal generated, the fluctuation range of the sound volume level of the original sound signal becomes smaller and converges to the average volume level. なぜならば、元の音信号は短いフレームで分割されそれらのフレームはランダムに順序が並べ替えられているだけでなく、そのような処理がなされた複数の音信号が重ねあわされているからである。 Because the original sound signal is divided in short frames those frames randomly well it is sorted order, because such a process a plurality of sound signals made are superimposed . このため、スクランブル音信号の音量レベルは略一定に保たれており、元の音信号の音量レベルの変動によるマスキング効果の不安定さが低減される。 Therefore, the volume level of the scrambled sound signal is kept substantially constant, instability of the masking effect due to variations in sound volume level of the original sound signal is reduced.

また、音信号を分割するフレーム長は話速に応じて適切に設定されるため、元の音に含まれていた音素は適切に分割されており、高いマスキング効果を有する。 Further, since the frame length for dividing the sound signal is set appropriately in accordance with the speech speed, the phoneme is properly divided contained in the original sound, it has a high masking effect. また、音素の分割やフレーム内のリバース処理により音の無意味化が十分になされており、ユーザのプライバシーやセキュリティーは保護される。 Further, meaningless sound by reverse processing of phonemes split and the frame has been fully, user privacy and security is protected. また、各フレームのつなぎ目においては窓掛け処理がなされていることから、生成されたスクランブル音信号は滑らかにつながった音信号となる。 Further, since the windowing process has been made at the connected parts of each frame, scrambled sound signal generated is the sound signals led smoothly.

再び図6において、CPU100は、ステップSA140において、生成されたスクランブル音信号をROM210に書き込む。 6 again, CPU 100, at step SA 140, and writes the generated scrambled sound signal to ROM 210.
また、CPU100は、音信号選択部520の各選択肢の右横に、スクランブル音信号選択テーブルにおいて該番号のスクランブル音信号に関連付けられた「名前」を表示する。 Further, CPU 100 is to the right of each choice of the sound signal selection unit 520 to display the "name" associated with the scrambled audio signal in the No. 該番 in scrambled sound signal selection table.

なお、ROM210には、ホワイトノイズを表す音信号も予め格納されている。 Note that the ROM 210, are stored in advance a sound signal representing a white noise. 従って、初期設定処理を終えた段階で、ROM210には、マスキングサウンドの元となる音信号として、スクランブル音信号とホワイトノイズの音信号が格納された状態となる。 Accordingly, at the stage of completion of the initial setting process, the ROM 210, as a sound signal as a source of the masking sound, a state in which the sound signal scrambling sound signal and the white noise is stored.

(B−2;マスキングサウンド生成処理) (B-2; masking sound generation processing)
次に、マスキングサウンド生成処理について説明する。 Next, a description will be given masking sound generation processing. 図9は、マスキングサウンド生成処理の流れを示したフローチャートである。 Figure 9 is a flowchart showing the flow of the masking sound generation processing.
マスキングサウンド生成装置10のユーザは、マスキングサウンド生成処理を実行させるにあたり、操作部500の動作モード選択部510を操作し、1または2のいずれかの動作モードを選択する。 User of the masking sound generation apparatus 10, when executing the masking sound generation processing, by operating the operation mode selection unit 510 of the operation unit 500, selects the operation mode of either 1 or 2. 操作部500は、選択された動作モードを示す動作モード情報をCPU100に出力する。 Operation unit 500 outputs the operation mode information indicating the operation mode selected in the CPU 100. 以下では、ユーザによりそれぞれの動作モードが選択された場合のマスキングサウンド生成処理について説明する。 The following describes the masking sound generation processing when the respective operating mode is selected by the user.

(B−2−1;動作モード1) (B-2-1; operation mode 1)
本動作モードは、音響空間20Aにおける音の音響特性に基づいて、マスキングサウンドを生成する上で適切なスクランブル音信号が自動的に選択されるモードである。 This mode of operation is based on the acoustic characteristics of sound in the acoustic space 20A, a mode suitable scrambling sound signal in order to generate a masking sound is automatically selected.

ステップSC100において、CPU100は、動作モード情報を受信する。 In step SC100, CPU 100 receives the operation mode information.
ステップSC110において、CPU100は、受信した動作モード情報が1であるか否かを判断する。 In step SC 110, CPU 100, the operation mode information received to determine whether or not 1. 本動作モードにおいては、動作モード情報は「1」であるから、ステップSC110の判断結果は“Yes”となり、ステップSC120の処理が行われる。 In this operating mode, because the operation mode information is "1", the judgment result at step SC110 is "Yes", and the processing of step SC120 is executed.

ステップSC120において、CPU100は、音響空間20Aにおける音を表す音信号を受取り、該音信号の音響特性分析処理を行う。 In step SC120, CPU 100 receives a sound signal representative of the sound in the acoustic space 20A, performs acoustic characteristics analysis process of the sound signal. 本処理は、初期設定処理における音響特性分析処理と同様であるため、その説明を省略する。 This process is similar to the acoustic characteristics analysis process in the initial setting process, the description thereof is omitted.

ステップSC130において、CPU100は、ステップSC120の音響特性分析処理の結果に基づいて、ROM210に書き込まれたスクランブル音信号からいずれか1つ適切な音信号を読み出す。 In step SC 130, CPU 100, based on the acoustic characteristics analysis process result in step SC120, reads out any one right sound signals from the scramble sound signal written in ROM 210. すなわち、CPU100は、ステップSC120における分析結果として得た音響特性(話速、フォルマント、および周波数特性)を、スクランブル音信号選択テーブルと照らし合わせ、最も音響特性が類似しているスクランブル音信号を選択する。 That, CPU 100 is an acoustic characteristic obtained as the analysis result in step SC120 (speech speed, formant, and the frequency characteristic), and against the scrambled sound signal selection table, most acoustic characteristics to select a scrambling sound signals which are similar .

ステップSC140において、CPU100は、読み出した音信号(本実施形態では180秒のデータ)をマスキングサウンドとして出力する。 In step SC140, CPU 100 (in this embodiment the data of 180 seconds) read sound signal to output as a masking sound. なお、スクランブル音信号は、180秒間のデータであるから、出力を開始してから180秒後以降は、該スクランブル音信号をループ状に繰り返し出力する。 Incidentally, it scrambled sound signal, since the data for 180 seconds, after 180 seconds after from the start of the output is repeatedly outputs the scrambled sound signal in a loop. なお、出力されるスクランブル音信号の音量レベルは、使用者により音量レベル選択部570により入力された音量レベルに応じて最適な値に設定され、該処理は割り込み処理として実行される。 Incidentally, the volume level of the scrambled sound signal to be output is set to an optimum value depending on the volume level inputted by the sound volume level selecting section 570 by the user, the processing is executed as an interrupt process.

本動作モードにおいては、音響空間20Aにおける音の音響特性を分析し、該音と最も音響特性が類似したスクランブル音信号がROM210に格納された多数のスクランブル音信号から選択される。 In this operation mode, it analyzes the acoustic characteristics of sound in the acoustic space 20A, scrambled sound signal the sound most acoustic characteristics similar is selected from a number of scrambled sound signal stored in the ROM 210. 上述のように、マスキングサウンドが対象音の音響特性と類似している場合に最も高いマスキング効果が発揮される。 As described above, the highest masking effect is exerted when the masking sound is similar to the acoustic properties of the target sound. 従って、出力されるマスキングサウンドは、音響空間20Aにおいて生じている音をマスキングするのに最も適した音響特性を有する。 Thus, the masking sound is output, has the most suitable acoustic characteristics to mask the sounds occurring in the acoustic space 20A.

(B−2−2;動作モード2) (B-2-2; Operation Mode 2)
次に、動作モード2おけるマスキングサウンド生成処理について説明する。 Next, the operation mode 2 definitive masking sound generation processing. 本動作モードは、ユーザの指示内容に従ってマスキングサウンドが自動的に選択されるモードである。 This operation mode is a mode in which the masking sound is automatically selected according to the instruction contents of the user.

ステップSA100において、CPU100は、動作モード情報を受信する。 In step SA100, CPU 100 receives the operation mode information.
ステップSA110において、CPU100は、受信した動作モード情報が1であるか否かを判断する。 In step SA110, CPU 100, the operation mode information received to determine whether or not 1. 本動作モードにおいては、動作モード情報は「2」であるから、ステップSC110の判断結果は“No”となり、ステップSC150の処理が行われる。 In this operating mode, because the operation mode information is "2", the judgment result at step SC110 is "No", and the processing of step SC150 is executed.

さて、ユーザは、次のいずれかの方法によりマスキングサウンドの生成に係るパラメータを入力する。 Now, the user inputs a parameter relating to generation of the masking sound by either of the following methods. まず1つめの方法について説明する。 Described first first method. ユーザは、操作部500の音信号選択部520の右横に表示されている「名前」を参照し、いずれかの音信号を直接指定する。 The user refers to the "name", which is displayed on the right side of the sound signal selection section 520 of the operation unit 500, to specify any of the sound signal directly. 例えば音響空間20Aにおいて「Aさん」が発声する場合には、ユーザは、音信号選択部520において「1」を押下し、英語による会議が行われる場合には、「5」を押下する。 For example, when "Mr. A" is uttered in the acoustic space 20A, the user presses the "1" in the sound signal selection unit 520, when the meeting in English is done, the user presses the "5".

もう1つの方法は、ユーザが、性別選択部530、年齢選択部540、言語選択部550、および音響空間選択部560の中から1つまたは複数について、特定の選択肢を選択する方法である。 Another method is the user, gender selection unit 530, the age selector 540, the language selecting section 550, and for one or more from among the acoustic space selection unit 560, a method for selecting a particular selection. この場合、前記選択された情報に基づいてCPU100が音信号を選択する。 In this case, selecting the CPU100 Gaoto signal based on the selected information. 例えば、「大人」の「男性」が「執務室」において「英語」で話をする場合には、図3に示すように性別選択部530、年齢選択部540、言語選択部550、および音響空間選択部560の各項目が選択される。 For example, when the "adult" in the "male" is the story in the "English" in the "office" is, sex selection unit 530 as shown in FIG. 3, age selection unit 540, the language selection unit 550 and the acoustic space, each item selection section 560 is selected.

操作部500は、上述の操作内容に応じて音信号選択情報または条件設定情報を出力する。 Operation unit 500 outputs a sound signal selection information or the condition setting information in accordance with the operation contents described above.
ステップSC150において、CPU100は、操作部500から音信号選択情報または条件設定情報を受信する。 In step SC150, CPU 100 receives the sound signal selection information or the condition setting information from the operation unit 500.

ステップSC130において、CPU100は、操作部500から受取った音信号選択情報または条件設定情報に基づいて音信号を選択する。 In step SC 130, CPU 100 selects the sound signal based on the sound signal selection information or the condition setting information received from the operation unit 500. すなわち、CPU100が音信号選択情報を受取った場合には、該音信号選択情報が表すスクランブル音信号をROM210から読み出してマスキングサウンドとして出力する。 That is, when receiving the CPU100 Gaoto signal selection information is output as a masking sound by reading the scrambled sound signal representative of the the sound signal selection information from the ROM 210. また、CPU100が条件設定情報を受信した場合には、該条件設定情報に書き込まれた性別、年齢、言語、そして音響空間の種類に関する情報を、スクランブル音信号選択テーブルと照らし合わせ、所定のアルゴリズム、例えば、最も一致した項目の数が多い音信号や、過去の選択履歴の中から最近選択された音信号、あるいは使用頻度が最も高い音信号など設定条件に合致するスクランブル音信号を読み出す。 Further, when the CPU100 receives the condition setting information, sex written in said condition setting information, age, language and information about the type of acoustic space, comparing with the scrambled sound signal selection table, a predetermined algorithm, for example, read the most consistent and large number sound signal scores were, the recently selected sound signal or scrambled sound signal frequently used to meet the like setting condition highest sound signal, from the past selection history. 前記所定のアルゴリズムは、利用者の要求に応じて任意に設定すればよい。 The predetermined algorithm may be set arbitrarily according to a user's request.

なお、このとき音響空間選択情報において、「住宅」が書き込まれていた場合には、CPU100は、マスキングサウンドとしてホワイトノイズの音信号を選択しても良い。 Note that in the acoustic space selection information this time, if the "housing" is written, the CPU 100 may select the sound signals of the white noise as the masking sound. なぜなら、一般に人の音から生成されたマスキングサウンドよりもホワイトノイズなどのランダムノイズから生成されたマスキングサウンドの方が、マスキング効果は低いものの不快感や違和感を引き起こす程度が低いため、居住性や快適性を優先する住宅では不快感や違和感が低いホワイトノイズによるマスキングが望まれるからである。 This is because in general towards the masking sound that is generated from a random noise such as white noise than the masking sound generated from the sound of the people, the degree masking effect is to cause discomfort or discomfort although the low low, livability and comfort in the preferred sex housing it is because the masking by discomfort or discomfort is low white noise is desired. また、「住宅」以外の場合でもホワイトノイズの音信号を優先することがあるのは言うまでもない。 In addition, there is giving priority to the sound signal of white noise even in the case of other than the "housing" is needless to say.

ステップSC140において、CPU100は、選択したスクランブル音信号またはホワイトノイズの音信号のいずれかを出力する。 In step SC140, CPU 100 outputs either the scrambled sound signal or white noise sound signal selected. なお、出力されるスクランブル音信号の音量レベルは、使用者により音量レベル選択部570により入力された音量レベルに応じて最適な値に設定される。 Incidentally, the volume level of the scrambled sound signal to be output is set to an optimum value depending on the volume level inputted by the sound volume level selecting section 570 by the user. なお、該処理は割り込み処理として実行される。 Incidentally, the processing is executed as an interrupt process.

本動作モードにおいては、音響空間20Aにおける音の特長や音響空間20Aの種類などの情報に基づいて、最も該音および音響空間20Aの音響特性に合致したスクランブル音信号が、ROM210に格納された複数のスクランブル音信号またはホワイトノイズから選択される。 More in this operation mode, based on the information such as the type of characteristics and acoustic space 20A of sound in the acoustic space 20A, scrambled sound signal that matches the acoustic characteristics of the most the sound and the acoustic space 20A, stored in the ROM210 It is selected from the scramble sound signal or white noise. この場合、ユーザは、ROM210にどのような音信号が格納されているかについて知らなくても、簡便に最適なマスキングサウンドを生成させることができる。 In this case, the user may not know about what the sound signal to the ROM210 is stored, it can be generated conveniently optimum masking sound.

(C;変形例) (C; Modification)
以上、本発明の一実施形態について説明したが、かかる実施形態に以下に述べるような変形を加えても良いことは勿論である。 Having described an embodiment of the present invention, in such embodiments may be modified variously as described below as a matter of course. また、以下に述べる変形を組み合わせて用いてもよい。 It may also be used in combination modifications described below.

(1)上記実施形態においては、マスキングサウンド生成装置10のCPU100が本発明に特徴的な処理の多くを実行する場合について説明したが、それぞれの処理を行うハードウェアモジュールを設けて同様の処理を行わせるようにしても良い。 (1) In the above embodiment, CPU100 of the masking sound generation apparatus 10 has been described to perform many characteristic processing in the present invention, the same process by providing a hardware module for each process it may be to perform.

(2)上記実施形態においては、初期設定処理において、音信号に各種の処理(フレーム化処理、リバース処理、窓掛け処理、およびランダム化処理)を全て施す場合について説明した。 In (2) above embodiment, in the initial setting process, various processes to the sound signal has been described a case of applying all (framing process, reverse process, the windowing processing and randomizing processing) a. しかし、上述した全ての処理を必ずしも行わなくても良く、それらの処理を組み合わせることにより言語としての意味が理解できない程度に音信号が改変されていれば良い。 However, it may not be performed necessarily all processes described above, the sound signal to the extent that the meaning can not be understood as a language by combining these processes need only be modified.

(3)上記実施形態においては、スクランブル音信号選択テーブルにおいて、音信号に関する複数の情報(性別、年齢、言語、話速、フォルマント、周波数特性)について書き込む場合について説明した。 (3) In the above embodiment, in the scrambled sound signal selection table, a plurality of information related to the sound signal (gender, age, language, speech rate, formant frequency characteristic) has been described a case where written about. しかし、音響特性分析処理において、話速、フォルマント、周波数特性の全てについて必ずしも分析する必要は無く、これら全ての項目について初期設定処理において書き込む必要もない。 However, the acoustic characteristics analysis process, speech speed, formants, need not necessarily be analyzed for all of the frequency characteristic is not necessary to write in the initial setting processing for all of these items. また、発音体属性情報の全てを書き込む必要は無い。 In addition, it is not necessary to write all of the sounding body attribute information. CPU100は、書き込まれた項目の範囲内で最も一致の度合いが高いスクランブル音信号を選択するようにすれば良い。 CPU100 is the degree of the most match within a written entry may be to select a high scrambled sound signal.

(4)上記実施形態においては、音響特性分析処理の方法の一例について説明した。 (4) The above embodiment has been described an example of a method of acoustic characteristics analysis process. しかし、各音響特性の分析方法は、上述の方法に限定されるものではなく、同様の分析結果が得られる方法であればどのような方法を用いても良い。 However, the analysis method of the acoustic characteristics is not limited to the above method, any method may be employed as long as the method similar analysis results.

(5)上記実施形態においては、動作モード1において、音響空間20Aで収音した音信号の音響特性を分析する処理について説明した。 (5) In the above embodiment, in the operation mode 1 has been described a process for analyzing acoustic characteristics of the sound signal picked up by the acoustic space 20A. しかし、実際にマスキングサウンドが放音される空間は音響空間20Bであり、両音響空間の間には壁などの音響特性を変化させる障害物即ち遮音構造体が存在する。 However, the space actually masking sound is emitted is acoustic space 20B, the obstacle i.e. sound insulating structure to change the acoustic properties, such as a wall between the two acoustic space exists. 従って、CPU100は、音響特性分析処理を行う前に、対象となる音信号に前記遮音構造体の遮音特性を模したフィルタリング処理を施して該音信号が壁を透過した場合の音響効果を付与し、その後音響特性分析処理を行うようにしても良い。 Accordingly, CPU 100, before performing the acoustic characteristics analysis process, the sound signal is applied to the acoustic effect of having passed through the wall is subjected to filtering processing which simulates the sound insulation characteristics of the sound insulating structure to the sound signal of interest it may then be performed acoustic characteristics analysis process. その結果、生成されるマスキングサウンドは、音響空間20Bのユーザに聞こえる騒音を模した音信号から生成されたものとなるため、より高いマスキング効果が期待できる。 As a result, the masking sound is generated, since the one generated from the sound signal simulating noise heard by the user of the acoustic space 20B, the higher the masking effect can be expected.

(6)上記実施形態においては、マイクロホン30とスピーカ40を別々の音響空間に設ける場合について説明した。 (6) The above embodiment has been described the case of providing a microphone 30 and a speaker 40 to separate the acoustic space. しかし、同じ音響空間にマイクロホン30およびスピーカ40を設置しても良い。 However, in the same acoustic space may be provided a microphone 30 and a speaker 40. 例えば音響空間20Aにマイクロホン30およびスピーカ40を設置した場合、音響空間20Aのユーザの会話内容からマスキングサウンドが生成され、該マスキングサウンドは音響空間20Aにおいて放音されるため、音響空間20Bには、会話内容とマスキングサウンドの両者が漏れ聞こえることになる。 For example, if you set up the microphone 30 and speaker 40 to the acoustic space 20A, a masking sound from the conversation contents of the user of the acoustic space 20A is generated, since the masking sound is emitted in the acoustic space 20A, the acoustic space 20B, the will be heard leakage is both the conversation and the masking sound. その結果、音響空間20Bのユーザは、音響空間20Aのユーザの会話内容を理解することが困難になる。 As a result, the user of the acoustic space 20B, it is difficult to understand the conversation of the user of the acoustic space 20A. この場合、前記マイクロホン30とスピーカ40によりハウリングが発生しないような配置や信号処理を行うことは当然のことである。 In this case, performing the placement and signal processing as howling does not occur by the microphone 30 and speaker 40 is a matter of course.

(7)上記実施形態においては、マイクロホン30およびスピーカ40を別々の音響空間に設置する場合について説明した。 (7) The above embodiment has been described for the case of installing the microphone 30 and speaker 40 to separate the acoustic space. しかし、同じ空間内にマイクロホン30およびスピーカ40を離して設置して、マイクロホン30の付近のエリアで秘匿性の高い会話がなされ、スピーカ40の付近のエリアのユーザにマスキングサウンドを放音することで該会話内容が聞こえないようにするようにしても良い。 However, by installing away microphone 30 and speaker 40 in the same space, high conversation confidential areas near the microphone 30 is made, by sounding a masking sound to the user's area in the vicinity of the speaker 40 the associative story content may be so as not to hear.

(8)上記実施形態においては、音響空間20Aにマイクロホン30を、音響空間20Bにスピーカ40を設置する場合について説明した。 (8) In the above embodiment, the microphone 30 in the acoustic space 20A, has been described a case of installing the speaker 40 to the acoustic space 20B. しかし、複数の音響空間、例えば音響空間20Aおよび20Bのそれぞれにおいて、マイクロホン30およびスピーカ40の両者を設置するようにしてもよい。 However, a plurality of acoustic spaces, for example, in each of the acoustic space 20A and 20B, may be installed both microphones 30 and speakers 40. その場合、マスキングサウンド生成装置10は入力手段を有し、ユーザは、秘匿性の高い会話を行う場合には入力手段を介してその旨を入力し、マスキングサウンド生成装置10は、該入力がなされた音響空間においてはマイクロホン30で音を収音し、他方の音響空間において生成されたマスキングサウンドを放音するように制御すれば良い。 In that case, the masking sound generation apparatus 10 has an input means, the user, when performing high conversation confidential inputs to that effect via the input means, the masking sound generation apparatus 10, the input is made was in the acoustic space by picking up sound by the microphone 30, it may be controlled so as to sound the masking sound produced in the other acoustic space.

(9)上記実施形態においては、CPU100は、音信号スクランブル処理において入力された音信号を相異なるフレーム長の3つの音信号に複製し、それぞれの音信号において相異なる音信号処理を施し、その後それらの音信号をミキシングしてマスキングサウンドを生成した。 (9) In the above embodiment, CPU 100 duplicates the three sound signals of the sound signals inputted in the sound signal scrambling different frame lengths, subjected to a different sound signal processing in each of the sound signals, then to generate a masking sound mixes their sound signal. しかし、扱う音信号の系統数は3に限られるものではなく、1または2でも良いし4以上でも良いが、マスキングサウンドとしての効果は、系統数がより多いほど高い。 However, the number of systems of the sound signals handled is not limited to three, but may be may be the one or four or more, but the effect of the masking sound is higher the higher the greater the number of systems.

(10)上記実施形態においては、CPU100は、音信号のフレーム化において、話速の平均値および時間的なばらつきである標準偏差σから、平均値、平均値+σ、平均値−σの値を算出し、複製された音信号の各々のフレーム化処理に適用する場合に場合について説明した。 (10) In the above embodiment, CPU 100 is in the frame of the sound signal, from the standard deviation sigma is the mean value and temporal variations in speech rate, average value, mean value + sigma, the value of the average value -σ calculated, it has been described in the case of applying to each of the framing process of the replicated audio signal. しかし、利用される値は、平均値と平均値±σの値に限られるものではない。 However, the value to be used is not limited to the average value and the average value ± sigma. 例えば、σに代えて標準誤差などとしても良いし、σに代えて予め定められた値を用いるとしても良い。 For example, may be used as the such as the standard error instead of sigma, it may be used a predetermined value in place of the sigma.
また、フレーム長選択テーブルにおいては、話速に対してフレーム長を3つ対応させておくようにし、CPU100は話速の平均値に対応する3つのフレーム長を読み出し、読み出されたフレーム長を用いて各々の音信号をフレームに分割するようにすれば良い。 In the frame length selection table, so keep three to correspond to the frame length relative to the speech rate, CPU 100 reads the three frame lengths corresponding to the average value of the speech speed, the frame length read out each of the sound signal may be to divide the frame using.

(11)上記実施形態においては、複製された音信号をそれぞれ異なるフレーム長で分割する場合について説明した。 (11) The above embodiment has been described for the case of dividing replicated audio signal to a different frame length. しかし、複数の複製された音信号を共通のフレーム長で分割するようにしても良い。 However, it is also possible to divide the plurality of replicated sound signals in a common frame length. その場合、CPU100は話速の平均値に対応するフレーム長を読み出し、読み出されたフレーム長を用いて各々の音信号をフレームに分割するようにすれば良い。 In that case, CPU 100 may be to divide the read frame length corresponding to the average value of the speech rate, each of the sound signal using the frame length read out to the frame.

(12)上記実施形態においては、ランダムノイズとしてホワイトノイズを用いる場合について説明した。 (12) The above embodiment has been described the case of using white noise as the random noise. しかし、ランダムノイズの種類は、ホワイトノイズに限定されず、例えばピンクノイズ(パワースペクトル密度が周波数に反比例する雑音)など他の音源でも良いし、空調から実際に発生する騒音や振動などから予め生成した音信号を用いるなどしても良い。 However, the type of random noise is not limited to white noise, for example, to pink noise or other sound source such as (power spectral density noise is inversely proportional to frequency), previously generated from noise and vibration that is actually generated from the air conditioner it may be such as with the sound signal.

(13)上記実施形態においては、既成の音信号をROM210に書き込むために光ディスク再生装置を設け、光ディスクに書き込まれた音信号をROM210に書き込む場合について説明した。 (13) In the above embodiment, the optical disk reproducing apparatus provided for writing the ready-made sound signals to ROM 210, has been described a case of writing the audio signal written in the optical disk ROM 210. しかし、外部から音信号を取り込むための装置は、光ディスク再生装置に限られるものではなく、例えばインターネットなどの通信網を介して音信号をサーバからダウンロードしたり、マスキングサウンド生成装置10に外部機器との接続を仲介するI/O部を設けて、該I/O部に接続されたFlash Memoryなどから音信号をROM210に移動したりしても良い。 However, devices for capturing the sound signal from the outside is not limited to the optical disc reproducing apparatus, or download the sound signal from a server for example via a communication network such as the Internet, and the external device to the masking sound generating apparatus 10 of providing an I / O unit that mediates the connection, a sound signal or the like the I / O unit connected to the Flash Memory may move to the ROM 210.

(14)上記実施形態においては、動作モード1および2が選択可能である場合について説明した。 (14) The above embodiment has been described the operation mode 1 and 2 can be selected. しかし、両方の動作モードに示した処理が実行可能である必要はなく、いずれか一方だけでも良い。 However, it is not necessary the process shown in both modes of operation can be executed, may be only one of.

(15)上記実施形態においては、初期設定処理において音信号スクランブル処理を施し、予めスクランブル音信号をROM210に書き込んでおく場合について説明した。 (15) In the above embodiment performs sound signal scrambling in the initial setting process has been described when the the previously written scrambled sound signal to ROM 210. しかし、CPU100は、音信号スクランブル処理することなく受取った音信号をROM210に格納し、マスキングサウンド生成処理の際に音信号スクランブル処理を行いながらマスキングサウンドを出力するようにしても良い。 However, CPU 100 stores a sound signal received without sound signal scrambling the ROM 210, may be output to the masking sound while the sound signal scrambling during the masking sound generation processing.
また、光ディスクにスクランブルされた音信号が格納されている場合には、初期設定処理において音信号スクランブル処理を行わなくても良い。 Further, when the sound signal is scrambled on the optical disk is stored, may not be performed sound signal scrambling in the initial setting process.

(16)上記実施形態においては、スクランブルされた音信号を複数生成し、それらの音信号をROM210に格納し、マスキングサウンドを生成する際にそれらを選択して用いる旨説明した。 (16) In the above embodiment, the scrambled audio signal generates a plurality, and stores them in the sound signal to the ROM 210, and explained that selecting and using them in generating the masking sound. 従って、上記実施形態における「スクランブルされた複数の音信号の組み」を記憶した記憶媒体を作成し、他の音信号の再生装置において該記憶媒体から読み出された音信号を選択して出力するようにしても良い。 Therefore, to create a storage medium storing "set of scrambled plurality of sound signal" in the above embodiment, and selects and outputs the sound signals read out from the storage medium in the reproducing apparatus of another sound signal it may be so.

(17)上記実施形態においては、動作モード1では、CPU100がスクランブル音信号選択テーブルを参照し、受取った音信号の音響特性に最も類似しているスクランブル音信号を選択する場合について説明した。 (17) In the above embodiment, the operation mode 1, CPU 100 has been described for selecting a scrambled sound signal is most similar to the acoustic properties of the reference to the scrambled sound signal selection table, it received sound signal. また、動作モード2では、CPU100がスクランブル音信号選択テーブルを参照し、ユーザから入力された各種条件と最も一致度が高いスクランブル音信号を選択する場合について説明した。 Further, in the operation mode 2, CPU 100 refers to the scrambled sound signal selection table, it has been described a case where the most matching degree with various conditions input from the user selects a high scrambled sound signal. しかし、CPU100は、上記いずれの場合においても、スクランブル音信号選択テーブルにおいて、スクランブル音信号を選択するにあたり、最も一致度が高いものではなく、一致度が一定のレベルを超えるものの中から選択するなどしても良い。 However, CPU 100 may In any of the above cases, the scrambled sound signal selection table, upon selecting a scrambling sound signals, and not best match degree is high, and the degree of coincidence is selected from those above a certain level it may be.

(18)上記実施形態においては、動作モード1において、音響特性分析処理の分析結果に基づいて、最も音響特性が類似したスクランブル音信号またはホワイトノイズの音信号が選択される場合について説明した。 (18) In the above embodiment, in the operation mode 1, based on the analysis results of the acoustic characteristics analysis process, most acoustic characteristics has been described a case where the sound signal scrambling sound signal or white noise similar is selected. しかし、複数の音信号を同時に選択することができるようにしても良い。 However, it may be able to select a plurality of sound signals at the same time. その場合、例えば動作モード1においては、操作部500において、選択される音信号の数を設定するための入力部を設けると良い。 In that case, in the example operation mode 1, the operation unit 500 may be provided with an input unit for setting the number of sound signals selected. そしてCPU100は、最も音響特性が一致した順に、所定の数の音信号を選択するようにすれば良い。 Then CPU100 is in the order of most acoustic characteristics are matched, it is sufficient to select the sound signal of a predetermined number. また、動作モード2において操作者により音信号が直接選択される場合には、音信号選択部520において押下された複数の選択肢と対応する複数の音信号が選択されるようにすればよい。 Further, when the sound signal is selected directly by the operator in the operation mode 2, the plurality of sound signals corresponding to the plurality of options is pressed in the sound signal selection unit 520 may be so selected. 以上のようにすれば、複数の音信号がマスキングサウンドとして重ねて出力されるため、効果的なマスキングがなされることが期待できる。 If this arrangement is adopted, since a plurality of the sound signals are output to overlap as the masking sound can be expected to effectively masking is performed.

(19)上記実施形態において、音響空間選択情報の内容に基づいて、出力されるマスキングサウンドに各種音響効果を付与しても良い。 In (19) above embodiment, based on the contents of the acoustic space selection information may be imparted to various sound effects to the masking sound to be output. 例えば音響空間選択情報が「ホール」である場合には、CPU100は、読み出されたスクランブル音信号またはホワイトノイズの音信号に対して残響効果を付与しても良い。 For example, when acoustic space selection information is "hole", the CPU 100 may impart reverberation effect to read scrambled sound signal or white noise sound signal. なお、残響の付与方法としては、所定の時間遅延させた複数の音信号を重ね合わせる(FIRフィルタによる反射音の畳み込み処理)など、従来技術を適用可能である。 As a method applying the reverberation, such as overlaying a plurality of sound signals obtained by delaying a predetermined time (convolution processing of the reflected sound by the FIR filter), it is possible to apply the prior art. また、「会議室」や「ホール」など、選択された音響空間の種類に応じて、残響時間や重ね合わせる音信号の数に差を設けるようにしても良い。 Moreover, such "conference room" or "hole", depending on the type of the selected acoustic space, may be provided a difference in the number of reverberation time and sound signals superimposed.
また、別の音響効果として反射音を畳み込む処理などにより音色の変換を施しても良い。 Further, it may be subjected to conversion of a tone due process convolving reflected sound as a different sound effect. 会議室では、音が会議室の壁や机で反射したり室内で反響したりして、会議室独特の音色へと変換される。 The conference room, sound and or echoed indoors or reflected by the wall or desk conference room, is converted to the conference room unique tone. 従って、音響空間選択情報が例えば「会議室」である場合には、CPU100は、読み出されたスクランブル音信号またはホワイトノイズの音信号の波形を調整して、該音信号を上記会議室特有の音色へ変換するなどしても良い。 Therefore, if the acoustic space selection information is, for example, "meeting room", the CPU 100 adjusts the waveform of the read scrambled sound signal or white noise sound signal, signal-specific the conference room the sound it may be such as to convert to sound.
以上の音響処理を施すことにより、更に違和感の少ないマスキングサウンドが生成される。 By performing acoustic processing described above, even smaller masking sound discomfort is generated.

(20)上記実施形態においては、音響空間選択部560における選択肢として、「会議室」、「住宅」、「ホール」、「執務室」など、部屋の種類が書き込まれている場合について説明した。 (20) In the above embodiment, as an option in the acoustic space selection unit 560, "meeting room", "residential", and "hole", "office", has been described a case where the type of the room is written. しかし、例えば「音がよく反響する空間」、「無響室」などといった部屋の音響特性を示す選択肢を設けても良い。 However, for example, "space sound echoing well", it may be provided the option of indicating the acoustic characteristics of the room, such as "anechoic". 要は、音響特性選択情報は、音響空間の音響特性を示す情報であれば良い。 In short, the acoustic characteristic selection information may be information indicating the acoustic characteristics of the acoustic space.

(21)上記実施形態においては、動作モード2において、音響空間選択情報に基づいて音信号が選択される場合について説明した。 (21) In the above embodiment, in the operation mode 2, it has been described a case where the sound signal is selected based on the acoustic space selection information. しかし、そのような場合に限らず、いずれの動作モードで動作している場合においても音響空間選択部560への入力が可能であるようにしても良い。 However, such is not limited to the case, it may be a possible input to the acoustic space selection unit 560 even when operating in either mode. そのようにすれば、上記変形例(19)にも説明したように、音響空間20の音響特性に基づいて各種の音響処理をマスキングサウンドに対して施すことが可能となる。 By doing so, as has been described above modification (19), it becomes possible to perform various sound processing on the masking sound based on the acoustic characteristics of the acoustic space 20.

(22)上記実施形態においては、動作モード1において、音響特性分析処理の分析結果を、スクランブル音信号またはホワイトノイズの選択に用いる場合について説明した。 (22) In the above embodiment, in the operation mode 1, the analysis results of the acoustic characteristics analysis process has been described when used in the selection of the scrambling sound signal or white noise. その場合、音響特性分析処理において更に、音響空間20Aにおける残響時間や反射音特性(インパルス応答)などを測定し、該音響特性分析処理の分析結果に基づいて、読み出された音信号に対して各種の音響処理を施して出力するようにしても良い。 In that case, further in the acoustic characteristics analysis process to measure the reverberation time and reflected sound characteristic in the acoustic space 20A (impulse response), based on the analysis result of the acoustic characteristics analysis process, with respect to the read sound signal it may be output by performing a variety of acoustic processing of. 例えば音響空間20Aは「ホール」である場合、ホールは一般に残響時間が非常に長いことから、読み出された音信号に対して残響処理を施すなどしても良い。 For example, if the acoustic space 20A is "hole", the hole is generally because the reverberation time is very long, it may be such as performing reverberation processing on the read audio signal.

(23)上記実施形態においては、動作モード2において、条件設定情報が入力された場合には該条件設定情報に基づいて音信号を読み出して出力する場合について説明した。 (23) In the above embodiment, in the operation mode 2, when the condition setting information has been input has been described a case where reading and outputting the sound signal on the basis of the condition setting information. その場合、読み出した音信号に対し、条件設定情報に基づいて各種音響処理を施しても良い。 In that case, with respect to the read sound signal may be subjected to various kinds of acoustic processing based on a condition setting information. 例えば、性別選択情報が「男性」である場合には、音信号をイコライジングして周波数の低い周波数成分を強調して「男性」の声を模した音信号に変換するようにするなどしても良い。 For example, even if such as gender selection information if "male" is to emphasize the low frequency components of the frequency by equalizing the sound signal so as to convert the sound signal that simulates the voice of "male" good. また、年齢選択情報が「小人」である場合には、音信号をイコライジングして周波数の高い周波数成分を強調して「小人」の声を模した音信号に変換するなどしても良い。 In addition, when the age selection information is "dwarf" is to emphasize the higher frequency components of the frequency by equalizing the sound signal may be such as to convert the sound signal that simulates the voice of "dwarf" .

マスキングサウンド生成装置10が設けられた音響空間20の構成を示した図である。 Masking sound generating apparatus 10 is a diagram showing a configuration of the acoustic space 20 provided. マスキングサウンド生成装置10の構成を示したブロック図である。 It is a block diagram showing a configuration of a masking sound generating apparatus 10. 操作部500の外観を示した図である。 Is a diagram showing the appearance of the operation unit 500. フレーム長選択テーブルの一例を示した図である。 Is a diagram showing an example of a frame length selection table. スクランブル音信号選択テーブルの一例を示した図である。 Is a diagram showing an example of a scrambled sound signal selection table. 初期設定処理の流れを示したフローチャートである。 It is a flowchart showing a flow of an initial setting process. 音信号スクランブル処理の流れを示したフローチャートである。 It is a flowchart showing the flow of the sound signal scrambling. 音信号スクランブル処理における音信号の波形を示した図である。 It illustrates a waveform of the sound signal in the sound signal scrambling. マスキングサウンド生成処理の流れを示したフローチャートである。 It is a flowchart showing a flow of the masking sound generation processing.

符号の説明 DESCRIPTION OF SYMBOLS

1…サウンドマスキングシステム、10…マスキングサウンド生成装置、20A、20B…音響空間、30…マイクロホン、40…スピーカ、100…CPU、200…記憶部、210…ROM、220…RAM、300…音声入力部、310…A/Dコンバータ、320…入力端子、400…音声出力部、410…D/Aコンバータ、420…アンプ、430…出力端子、500…操作部、510…動作モード選択部、520…音信号選択部、530…性別選択部、540…年齢選択部、550…言語選択部、560…音響空間選択部、570…音量レベル選択部、600…光ディスク再生装置、700…バス 1 ... sound masking system, 10 ... masking sound generating apparatus, 20A, 20B ... acoustic space, 30 ... microphone, 40 ... speaker, 100 ... CPU, 200 ... storage unit, 210 ... ROM, 220 ... RAM, 300 ... voice input section , 310 ... A / D converter, 320 ... input terminal, 400 ... voice output section, 410 ... D / A converter, 420 ... amplifier, 430 ... output terminal, 500 ... operation section, 510 ... operation mode selection unit, 520 ... sound signal selection unit, 530 ... gender selection section, 540 ... age selector, 550 ... language selection unit, 560 ... acoustic space selection unit, 570 ... volume level selection unit, 600 ... optical disk reproducing apparatus, 700 ... bus

Claims (14)

  1. 音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、 By reconstituting dividing the sound signal into predetermined time lengths of sections, the scrambled sound signal time series is changed of the sound signal with a plurality of storage, storage for storing the acoustic characteristics of each of the scrambled sound signal and means,
    音を収音し前記音の音響特性を分析する音響特性分析手段と、 An acoustic characteristic analysis means for picks up sound analyzing acoustic characteristics of the sound,
    前記音響特性分析手段により分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段と を具備することを特徴とするマスキングサウンド生成装置。 The acoustic characteristics analyzed acoustic characteristics analyzed by means of the acoustic characteristics of the scrambling sound signal by comparing a predetermined algorithm to determine the scrambled sound signal, and outputs a scrambled sound signal determined the from the storage means is read masking sound generating apparatus characterized by comprising an output unit.
  2. 音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、 By reconstituting dividing the sound signal into predetermined time lengths of sections, the scrambled sound signal time series is changed of the sound signal with a plurality of storage, storage for storing the acoustic characteristics of each of the scrambled sound signal and means,
    操作者からマスキングされる音の音響特性に関する情報を受取る受取手段と、 A receiving means for receiving information regarding the acoustic characteristics of the sound to be masked from the operator,
    前記受取手段により受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段と を具備することを特徴とするマスキングサウンド生成装置。 Output means for the acoustic characteristics is received by the receiving means and the acoustic characteristics of the scrambling sound signal by comparing a predetermined algorithm to determine the scrambled sound signal, and outputs a scrambled sound signal determined the from the storage means is read masking sound generating apparatus characterized by comprising and.
  3. 音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶する記憶手段と、 By reconstituting dividing the sound signal into predetermined time lengths of sections, and storage means for storing a plurality of scramble sound signal time series is changed in the sound signal,
    操作者から前記記憶手段に記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取手段と、 A receiving means for the operator receives an indication signal designating one of the stored scrambled sound signal in said storage means,
    前記受取手段により受取られた指示信号が示すスクランブル音信号を、前記記憶手段から読出して出力する出力手段と を具備することを特徴とするマスキングサウンド生成装置。 Masking sound generating apparatus scrambled sound signal indicated by the instruction signal received, characterized by comprising an output means for outputting reads from the storage means by the receiving means.
  4. 音信号を受取り、該音信号を所定区間に区切って加工することにより、前記各区間の時系列が変更されたスクランブル音信号を生成し、前記記憶手段に記憶させるスクランブル手段と を更に備えることを特徴とする請求項1ないし3のいずれかに記載のマスキングサウンド生成装置。 Receiving a sound signal, by processing by separating the sound signal into predetermined interval, said generating a scrambled sound signal sequence is changed when each section, further comprising a scrambling means for storing in said memory means masking sound generating apparatus according to any one of claims 1 to 3, wherein.
  5. 前記出力手段は、前記音響特性分析手段により分析された前記音の音響特性に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力する ことを特徴とする請求項1に記載のマスキングサウンド生成装置。 And the output means, according to on the basis of the acoustic characteristics of the acoustic characteristics analyzed analyzed the sound by means, according to claim 1, characterized in that the output is subjected to sound processing scrambled sound signal read from said memory means masking sound generating device.
  6. 前記出力手段は、前記受取手段が受取った前記マスキングされる音の音響特性に関する情報に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力する ことを特徴とする請求項2に記載のマスキングサウンド生成装置。 Said output means, said receiving means based on information about acoustic characteristics of the sound is the masking received, claim 2, characterized in that the output is subjected to sound processing to read out scrambled sound signal from said memory means masking sound generating apparatus according to.
  7. 操作者から前記スクランブル音信号が放音される空間の音響特性に関する情報を受取る受信手段を更に有し、 Further comprising a receiving means for receiving information regarding the acoustic characteristics of the space scrambled sound signal is emitted from the operator,
    前記出力手段は、前記受信手段が受取った空間の音響特性に関する情報に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力する ことを特徴とする請求項1ないし4のいずれかに記載のマスキングサウンド生成装置。 And the output means, based on information about acoustic characteristics of the receiving means has received the space, the one from the storage means of claims 1 and outputs by performing sound processing on the read out scramble sound signal 4 masking sound generating device of crab described.
  8. 音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を記憶装置に複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶段階と、 By reconstituting dividing the sound signal into predetermined time length of the section, with a plurality of storage in the storage device a scrambling sound signal time series is changed in the sound signal, the acoustic characteristics of each of the scrambled sound signal a storage step of storing to,
    音を収音し前記音の音響特性を分析する音響特性分析段階と、 And acoustic characteristics analysis stage which picks up sound analyzing acoustic characteristics of the sound,
    前記音響特性分析段階において分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶装置から該決定したスクランブル音信号を読出して出力する出力段階と を具備することを特徴とするマスキングサウンド生成方法。 The acoustic characteristics analyzed acoustic characteristics analyzed in step the acoustic characteristics of the scrambling sound signal by comparing a predetermined algorithm to determine the scrambled sound signal, and outputs a scrambled sound signal determined the from the storage device is read masking sound generation method characterized by comprising an output stage.
  9. 音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を記憶装置に複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶段階と、 By reconstituting dividing the sound signal into predetermined time length of the section, with a plurality of storage in the storage device a scrambling sound signal time series is changed in the sound signal, the acoustic characteristics of each of the scrambled sound signal a storage step of storing to,
    操作者からマスキングされる音の音響特性に関する情報を受取る受取段階と、 A receiving step of receiving information about the acoustic properties of the sound to be masked from the operator,
    前記受取段階において受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶装置から該決定したスクランブル音信号を読出して出力する出力段階と を具備することを特徴とするマスキングサウンド生成方法。 Output stage the acoustic characteristics received at receive stage and acoustic characteristics of the scrambling sound signal by comparing a predetermined algorithm to determine the scrambled sound signal, and outputs a scrambled sound signal determined the from the storage device is read masking sound generation method characterized by comprising and.
  10. 音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を記憶装置に複数記憶する記憶段階と、 By reconstituting dividing the sound signal into predetermined time lengths of sections, a storage step of storing a plurality of scrambled sound signal in a storage device the time series of the sound signal is changed,
    操作者から前記記憶段階において記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取段階と、 A receiving step of the operator receives an indication signal designating one of the stored scrambled sound signal in said storage step,
    前記受取段階において受取られた指示信号が示すスクランブル音信号を、前記記憶装置から読出して出力する出力段階と を具備することを特徴とするマスキングサウンド生成方法。 Masking sound generation method characterized by comprising an output step of a scramble sound signal indicated received the instruction signal in the receiving step, to output reads from the storage device.
  11. コンピュータを、 The computer,
    音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、 By reconstituting dividing the sound signal into predetermined time lengths of sections, the scrambled sound signal time series is changed of the sound signal with a plurality of storage, storage for storing the acoustic characteristics of each of the scrambled sound signal and means,
    音を収音し前記音の音響特性を分析する音響特性分析手段と、 An acoustic characteristic analysis means for picks up sound analyzing acoustic characteristics of the sound,
    前記音響特性分析手段により分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段 として機能させるためのプログラム。 The acoustic characteristics analyzed acoustic characteristics analyzed by means of the acoustic characteristics of the scrambling sound signal by comparing a predetermined algorithm to determine the scrambled sound signal, and outputs a scrambled sound signal determined the from the storage means is read program for functioning as an output unit.
  12. コンピュータを、 The computer,
    音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、 By reconstituting dividing the sound signal into predetermined time lengths of sections, the scrambled sound signal time series is changed of the sound signal with a plurality of storage, storage for storing the acoustic characteristics of each of the scrambled sound signal and means,
    操作者からマスキングされる音の音響特性に関する情報を受取る受取手段と、 A receiving means for receiving information regarding the acoustic characteristics of the sound to be masked from the operator,
    前記受取手段により受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段 として機能させるためのプログラム。 Output means for the acoustic characteristics is received by the receiving means and the acoustic characteristics of the scrambling sound signal by comparing a predetermined algorithm to determine the scrambled sound signal, and outputs a scrambled sound signal determined the from the storage means is read program to function as.
  13. コンピュータを、 The computer,
    音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶する記憶手段と、 By reconstituting dividing the sound signal into predetermined time lengths of sections, and storage means for storing a plurality of scramble sound signal time series is changed in the sound signal,
    操作者から前記記憶手段に記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取手段と、 A receiving means for the operator receives an indication signal designating one of the stored scrambled sound signal in said storage means,
    前記受取手段により受取られた指示信号が示すスクランブル音信号を、前記記憶手段から読出して出力する出力手段 として機能させるためのプログラム。 Program for causing a scrambled sound signal indicated by the instruction signal received by said receiving means, as an output means for outputting reads from the storage means.
  14. 音信号を所定区間に区切って加工することにより、前記各区間の時系列が変更されたスクランブル音信号を複数記憶するとともに、前記各スクランブルデータを選択的に読み出せるように記憶したコンピュータ読み取り可能な記録媒体。 By processing separated sound signal to a predetermined interval, wherein a scrambled sound signal time series is changed in each section with a plurality of storage, the computer-readable storing as put out selectively reading each scrambling data recoding media.
JP2007075283A 2007-03-22 2007-03-22 Masking sound generating apparatus, the masking sound generating method and a program Active JP5103974B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007075283A JP5103974B2 (en) 2007-03-22 2007-03-22 Masking sound generating apparatus, the masking sound generating method and a program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007075283A JP5103974B2 (en) 2007-03-22 2007-03-22 Masking sound generating apparatus, the masking sound generating method and a program

Publications (2)

Publication Number Publication Date
JP2008233672A true true JP2008233672A (en) 2008-10-02
JP5103974B2 JP5103974B2 (en) 2012-12-19

Family

ID=39906501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007075283A Active JP5103974B2 (en) 2007-03-22 2007-03-22 Masking sound generating apparatus, the masking sound generating method and a program

Country Status (1)

Country Link
JP (1) JP5103974B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010231218A (en) * 2010-04-27 2010-10-14 Sony Corp Music reproduction device
JP2011154125A (en) * 2010-01-26 2011-08-11 Yamaha Corp Apparatus for performing sound masking and program
JP2011154141A (en) * 2010-01-26 2011-08-11 Yamaha Corp Masker sound generation apparatus and program
JP2011175182A (en) * 2010-02-25 2011-09-08 Canon Inc Information processor and operation method thereof
EP2367169A2 (en) 2010-01-26 2011-09-21 Yamaha Corporation Masker sound generation apparatus and program
WO2012043597A1 (en) * 2010-09-28 2012-04-05 ヤマハ株式会社 Masking sound outputting device, and masking sound outputting means
JP2012113130A (en) * 2010-11-25 2012-06-14 Yamaha Corp Sound masking apparatus
JP2012141524A (en) * 2011-01-06 2012-07-26 Dainippon Printing Co Ltd Encrypted data generation device, encrypted data generation method, encryption device, encryption method, and program
JP2013231987A (en) * 2013-06-24 2013-11-14 Yamaha Corp Conversation leakage prevention device
JP2014174255A (en) * 2013-03-07 2014-09-22 Sony Corp Signal processing device, signal processing method, and storage medium
CN104637485A (en) * 2015-03-03 2015-05-20 山东省计算中心(国家超级计算济南中心) Generating method for shielding signals used for protecting Chinese speech privacy

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH055334A (en) * 1991-04-22 1993-01-14 Daiken Trade & Ind Co Ltd Masking partition
JPH06308977A (en) * 1993-04-22 1994-11-04 Matsushita Electric Works Ltd Soundproof partition
JP2004205889A (en) * 2002-12-26 2004-07-22 Daiichikosho Co Ltd Karaoke remote controller and karaoke player featured by music selection system
JP2005084645A (en) * 2003-09-11 2005-03-31 Glory Ltd Masking device
JP2005283804A (en) * 2004-03-29 2005-10-13 Daiichikosho Co Ltd Karaoke remote controller with electronic table of contents book function
JP2005534061A (en) * 2002-07-24 2005-11-10 アプライド マインズ インク Method and system for masking a language
JP2006267174A (en) * 2005-03-22 2006-10-05 Yamaguchi Univ Device for protection of speech privacy
JP2007017840A (en) * 2005-07-11 2007-01-25 Nissan Motor Co Ltd Speech authentication device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH055334A (en) * 1991-04-22 1993-01-14 Daiken Trade & Ind Co Ltd Masking partition
JPH06308977A (en) * 1993-04-22 1994-11-04 Matsushita Electric Works Ltd Soundproof partition
JP2005534061A (en) * 2002-07-24 2005-11-10 アプライド マインズ インク Method and system for masking a language
JP2004205889A (en) * 2002-12-26 2004-07-22 Daiichikosho Co Ltd Karaoke remote controller and karaoke player featured by music selection system
JP2005084645A (en) * 2003-09-11 2005-03-31 Glory Ltd Masking device
JP2005283804A (en) * 2004-03-29 2005-10-13 Daiichikosho Co Ltd Karaoke remote controller with electronic table of contents book function
JP2006267174A (en) * 2005-03-22 2006-10-05 Yamaguchi Univ Device for protection of speech privacy
JP2007017840A (en) * 2005-07-11 2007-01-25 Nissan Motor Co Ltd Speech authentication device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8861742B2 (en) 2010-01-26 2014-10-14 Yamaha Corporation Masker sound generation apparatus and program
JP2011154125A (en) * 2010-01-26 2011-08-11 Yamaha Corp Apparatus for performing sound masking and program
JP2011154141A (en) * 2010-01-26 2011-08-11 Yamaha Corp Masker sound generation apparatus and program
EP2367169A2 (en) 2010-01-26 2011-09-21 Yamaha Corporation Masker sound generation apparatus and program
EP2367169A3 (en) * 2010-01-26 2014-11-26 Yamaha Corporation Masker sound generation apparatus and program
JP2011175182A (en) * 2010-02-25 2011-09-08 Canon Inc Information processor and operation method thereof
JP2010231218A (en) * 2010-04-27 2010-10-14 Sony Corp Music reproduction device
WO2012043597A1 (en) * 2010-09-28 2012-04-05 ヤマハ株式会社 Masking sound outputting device, and masking sound outputting means
JP2012095262A (en) * 2010-09-28 2012-05-17 Yamaha Corp Masker sound output device
CN103109317A (en) * 2010-09-28 2013-05-15 雅马哈株式会社 Masking sound outputting device, and masking sound outputting means
US9286880B2 (en) 2010-09-28 2016-03-15 Yamaha Corporation Masking sound outputting device and masking sound outputting method
JP2012113130A (en) * 2010-11-25 2012-06-14 Yamaha Corp Sound masking apparatus
JP2012141524A (en) * 2011-01-06 2012-07-26 Dainippon Printing Co Ltd Encrypted data generation device, encrypted data generation method, encryption device, encryption method, and program
JP2014174255A (en) * 2013-03-07 2014-09-22 Sony Corp Signal processing device, signal processing method, and storage medium
JP2013231987A (en) * 2013-06-24 2013-11-14 Yamaha Corp Conversation leakage prevention device
CN104637485A (en) * 2015-03-03 2015-05-20 山东省计算中心(国家超级计算济南中心) Generating method for shielding signals used for protecting Chinese speech privacy

Also Published As

Publication number Publication date Type
JP5103974B2 (en) 2012-12-19 grant

Similar Documents

Publication Publication Date Title
Markel et al. Long-term feature averaging for speaker recognition
US8036767B2 (en) System for extracting and changing the reverberant content of an audio input signal
Alten Audio in media
Verfaille et al. Adaptive digital audio effects (A-DAFx): A new class of sound transformations
Christensen et al. The CHiME corpus: a resource and a challenge for computational hearing in multisource environments
US7412380B1 (en) Ambience extraction and modification for enhancement and upmix of audio signals
US6182044B1 (en) System and methods for analyzing and critiquing a vocal performance
Soli et al. Assessment of speech intelligibility in noise with the Hearing in Noise Test
US20060130637A1 (en) Method for differentiated digital voice and music processing, noise filtering, creation of special effects and device for carrying out said method
Cosi et al. Auditory modelling and self‐organizing neural networks for timbre classification
US20080044048A1 (en) Modification of voice waveforms to change social signaling
US6956955B1 (en) Speech-based auditory distance display
US20090262969A1 (en) Hearing assistance apparatus
Thomas The influence of first and second formants on the intelligibility of clipped speech
Saitou et al. Speech-to-singing synthesis: Converting speaking voices to singing voices by controlling acoustic features unique to singing voices
Bele The speaker's formant
Cooke et al. Evaluating the intelligibility benefit of speech modifications in known noise conditions
Farina Acoustic quality of theatres: correlations between experimental measures and subjective evaluations
Moore et al. Microphone array speech recognition: Experiments on overlapping speech in meetings
Stern et al. Hearing is believing: Biologically inspired methods for robust automatic speech recognition
Shi et al. On the importance of phase in human speech recognition
Corey Audio production and critical listening: Technical ear training
Hoen et al. Phonetic and lexical interferences in informational masking during speech-in-speech comprehension
US20090182563A1 (en) System and a method of processing audio data, a program element and a computer-readable medium
Ternström Preferred self-to-other ratios in choir singing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3