JP2009172371A - Sound reproduction unit - Google Patents

Sound reproduction unit Download PDF

Info

Publication number
JP2009172371A
JP2009172371A JP2008334141A JP2008334141A JP2009172371A JP 2009172371 A JP2009172371 A JP 2009172371A JP 2008334141 A JP2008334141 A JP 2008334141A JP 2008334141 A JP2008334141 A JP 2008334141A JP 2009172371 A JP2009172371 A JP 2009172371A
Authority
JP
Japan
Prior art keywords
frequency
audible
sound
audible sound
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008334141A
Other languages
Japanese (ja)
Other versions
JP5286075B2 (en
Inventor
Yoshinori Maeda
佳紀 前田
Hiroyuki Okada
裕之 岡田
Etsuji Yoshikawa
悦次 吉川
Yoshiyuki Shimizu
良幸 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP2008334141A priority Critical patent/JP5286075B2/en
Publication of JP2009172371A publication Critical patent/JP2009172371A/en
Application granted granted Critical
Publication of JP5286075B2 publication Critical patent/JP5286075B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound reproduction unit which can output an output signal with a frequency component which is not dependent on a frequency component of sound source signals accumulated in a database. <P>SOLUTION: The sound reproduction unit 40 comprises a parameter housing section 410 to preliminarily house psychosomatic specific information and parameters representing a correlation between psychosomatic specific information, an input section 420 to input present condition specific information and target condition specific information, a parameter read-out section 430 to read out a parameter representing the correlation between the present condition specific information and the target condition specific information from the parameter housing section 410, a non-audible sound control section 440 to create an output signal Y(t) by creating non-audible sound X(t) for changing the present psychosomatic condition to the target psychosomatic condition based on the parameter and adding the created non-audible sound X(t) to the sound source signal inputted from the sound source input device 30, and an output section 450 to make a subject hear the output signal Y(t) created by the non-audible sound control section 440. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、音響再生装置に関するものである。   The present invention relates to a sound reproducing device.

近年、音によるリラクゼーション・セラピィ・システムが知られている。例えば特許文献1に記載されたシステムは、事前に効果有と確認された音情報を予めデータベースに蓄積しておいた状態で被験者に対して問診を行い、当該問診の結果に基づいて適切な音を上記データベースから抽出して被験者に提供するというリラクゼーション・セラピィ・システムである。
特開平10−118185号公報
In recent years, relaxation therapy systems using sound have been known. For example, the system described in Patent Document 1 interviews a subject in a state where sound information that has been confirmed to be effective in advance is stored in a database in advance, and based on the result of the interview, an appropriate sound Is a relaxation therapy system that extracts the information from the database and provides it to the subject.
JP-A-10-118185

例えば特許文献1に記載された従来のシステムでは、データベースに予め蓄積した音源信号をシステムの出力信号として被験者に提供している。このため、特許文献1に記載のシステムを用いる場合には、問診の結果毎にそれぞれ異なる周波数成分を有する音源信号を予め全て蓄積しておく必要があり、これによってデータベースの容量が膨大になることが懸念される。この問題点は、システムの出力信号の周波数成分がデータベースに蓄積された音源信号の周波数成分に依存することに起因するものと思われる。   For example, in the conventional system described in Patent Document 1, a sound source signal stored in advance in a database is provided to the subject as an output signal of the system. For this reason, when using the system described in Patent Document 1, it is necessary to store in advance all sound source signals having different frequency components for each result of the inquiry, which increases the capacity of the database. Is concerned. This problem seems to be due to the fact that the frequency component of the output signal of the system depends on the frequency component of the sound source signal stored in the database.

そこで、本発明は上記に鑑みてなされたもので、データベースに蓄積された音源信号の周波数成分に依存しない周波数成分を有する出力信号を出力することを可能とし、更に当該出力信号により被験者の心身状態を変化させることが可能な音響再生装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above, and it is possible to output an output signal having a frequency component that does not depend on the frequency component of the sound source signal accumulated in the database, and further the psychosomatic state of the subject by the output signal. An object of the present invention is to provide a sound reproducing device capable of changing the sound.

上記課題を解決するために、本発明の音響再生装置は、被験者の心身状態を特定する複数の心身状態特定情報と、前記複数の心身状態特定情報それぞれの相関関係を特定する複数のパラメータと、を予め格納する格納手段と、前記被験者の現在の心身状態を特定する現在状態特定情報の入力を受け付ける現在状態入力手段と、前記被験者の前記現在の心身状態を前記被験者の他の心身状態に変化させる際の目標となる目標心身状態を特定する目標状態特定情報の入力を受け付ける目標状態入力手段と、前記現在状態入力手段が受け付けた現在状態特定情報と前記目標状態入力手段が受け付けた目標状態特定情報との間の相関関係を特定するパラメータを、前記格納手段を参照して読み出すパラメータ読出手段と、任意の音源信号の入力を受け付ける音源入力手段と、前記被験者の前記現在の心身状態を前記被験者の前記目標心身状態に変化させるために前記被験者に聴かせる非可聴音を、前記パラメータ読出手段が読み出したパラメータに基づいて生成し、当該生成した非可聴音を前記音源入力手段が受け付けた前記音源信号に付加することにより出力信号を生成する非可聴音付加手段と、前記非可聴音付加手段が生成した出力信号を前記被験者に出力する出力手段と、を備える。ここで、前記非可聴音付加手段は、当該生成した非可聴音と、前記音源入力手段より入力した音源信号とを加算することにより、前記出力信号を生成しても良い。   In order to solve the above-described problem, the sound reproduction device of the present invention includes a plurality of psychosomatic state specifying information for specifying a subject's psychosomatic state, and a plurality of parameters for specifying correlations between the plurality of psychosomatic state specifying information, Storage means for storing in advance, current state input means for receiving input of current state specifying information for specifying the current mind-body state of the subject, and changing the current mind-body state of the subject to another mind-body state of the subject Target state input means for receiving an input of target state specifying information for specifying a target psychosomatic state as a target when the current state is input, current state specifying information received by the current state input means, and target state specification received by the target state input means A parameter reading means for reading out a parameter for specifying a correlation between the information and the storage means, and an input of an arbitrary sound source signal; And generating a non-audible sound to be heard by the subject to change the current psychosomatic state of the subject to the target psychosomatic state of the subject based on the parameter read by the parameter reading means. A non-audible sound adding means for generating an output signal by adding the generated non-audible sound to the sound source signal received by the sound source input means; and an output signal generated by the non-audible sound adding means to the subject. Output means for outputting. Here, the non-audible sound adding unit may generate the output signal by adding the generated non-audible sound and the sound source signal input from the sound source input unit.

このような本発明の音響再生装置によれば、被験者に提供する出力信号は、任意の音源信号に非可聴音が付加されて成るものである。つまり、出力信号の周波数成分は、音源信号の周波数成分とは関係がなく、付加される非可聴音の周波数成分に依存して変化するものである。したがって、本発明によれば、音源信号の周波数成分に依存しない周波数成分を有する出力信号を出力することが可能となる。更に、出力信号が音源信号に依存しないことから、格納手段は例えば被験者の心身状態毎に異なる音源信号をいちいち蓄積する必要がなくなる。このため、格納手段を構成するために必要な記憶容量が大きくなることを防止することができる。   According to such a sound reproducing apparatus of the present invention, the output signal provided to the subject is obtained by adding a non-audible sound to an arbitrary sound source signal. That is, the frequency component of the output signal has no relation to the frequency component of the sound source signal, and changes depending on the frequency component of the non-audible sound to be added. Therefore, according to the present invention, it is possible to output an output signal having a frequency component that does not depend on the frequency component of the sound source signal. Furthermore, since the output signal does not depend on the sound source signal, the storage means does not need to accumulate different sound source signals for each psychological and physical condition of the subject, for example. For this reason, it is possible to prevent an increase in the storage capacity necessary for configuring the storage means.

また、非可聴音は格納手段に格納されたパラメータに基づいて生成されるものである。このパラメータは被験者の複数の心身状態間の相関関係を表すものであるため、パラメータ読出手段が被験者の現在の心身状態と目標心身状態との間の相関関係に対応するパラメータを適切に選択して非可聴音付加手段に出力することにより、非可聴音付加手段は被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音を生成することができる。そして、この非可聴音を音源信号とあわせて被験者に提供することにより、被験者の現在の心身状態を目標心身状態に変化させるための適切なリラクゼーション・セラピィを被験者に提供することができる。   The non-audible sound is generated based on parameters stored in the storage means. Since this parameter represents the correlation between a plurality of psychosomatic states of the subject, the parameter reading means appropriately selects a parameter corresponding to the correlation between the current psychosomatic state of the subject and the target psychosomatic state. By outputting to the non-audible sound adding means, the non-audible sound adding means can generate an appropriate non-audible sound for changing the current psychosomatic state of the subject to the target psychosomatic state. Then, by providing this non-audible sound together with the sound source signal to the subject, it is possible to provide the subject with an appropriate relaxation therapy for changing the subject's current psychosomatic state to the target psychosomatic state.

また、本発明においては、前記パラメータは、非可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つであっても良い。   In the present invention, the parameter may be at least one of a frequency in a non-audible region, an amplitude at the frequency, and a phase at the frequency.

この発明によれば、非可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つのパラメータを用いることより、非可聴音付加手段は被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音を生成することができる。   According to the present invention, by using at least one parameter among the frequency in the non-audible region, the amplitude at the frequency, and the phase at the frequency, the non-audible sound adding means can target the current psychosomatic state of the subject. Appropriate non-audible sound for changing to a psychosomatic state can be generated.

また、本発明においては、前記非可聴音付加手段は、前記パラメータ読出手段が読み出したパラメータが前記非可聴領域における周波数、該周波数での振幅、および該周波数での位相を指している場合に、下記数式(1)
X(t)=a{1+sin(2πft―θ)}…(1)
により、前記非可聴音X(t)を生成し、下記数式(2)
Y(t)=X(t)s(t)…(2)
(式中、fは前記周波数を表し、aは該周波数fでの振幅を表し、θは該周波数fでの位相を表し、s(t)は前記音源信号を表し、tは時間を表す。)
により、前記非可聴音X(t)と前記音源信号s(t)とを乗算して前記出力信号Y(t)を生成しても良い。
In the present invention, the non-audible sound adding means, when the parameter read by the parameter reading means indicates the frequency in the non-audible region, the amplitude at the frequency, and the phase at the frequency, The following mathematical formula (1)
X (t) = a {1 + sin (2πft−θ)} (1)
The non-audible sound X (t) is generated by the following equation (2)
Y (t) = X (t) s (t) (2)
(Where f represents the frequency, a represents the amplitude at the frequency f, θ represents the phase at the frequency f, s (t) represents the sound source signal, and t represents time. )
Thus, the non-audible sound X (t) and the sound source signal s (t) may be multiplied to generate the output signal Y (t).

また、本発明においては、前記非可聴音付加手段は、前記パラメータ読出手段が読み出したパラメータがn個の複数の周波数、振幅、および位相を指している場合に、下記数式(3)

Figure 2009172371

(式中、fは前記複数の周波数のうちの一つを表し、aは該周波数fでの振幅を表し、θは該周波数fでの位相を表す。)
により、前記非可聴音X(t)を生成しても良い。 Further, in the present invention, the non-audible sound adding unit is configured such that when the parameter read by the parameter reading unit indicates n frequencies, amplitudes, and phases, the following mathematical formula (3):
Figure 2009172371

(Where f i represents one of the plurality of frequencies, a i represents the amplitude at the frequency f i , and θ represents the phase at the frequency f i ).
Thus, the non-audible sound X (t) may be generated.

これらの発明によれば、非可聴音付加手段は、非可聴領域における周波数、該周波数での振幅、および該周波数での位相を上記の式(1)〜式(3)におけるパラメータとして用いることにより、被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音X(t)および出力信号Y(t)を生成することができる。   According to these inventions, the non-audible sound adding means uses the frequency in the non-audible region, the amplitude at the frequency, and the phase at the frequency as parameters in the above formulas (1) to (3). An appropriate non-audible sound X (t) and an output signal Y (t) for changing the current psychosomatic state of the subject to the target psychosomatic state can be generated.

また、本発明においては、前記パラメータには、可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つが更に含まれていても良い。   In the present invention, the parameter may further include at least one of a frequency in the audible region, an amplitude at the frequency, and a phase at the frequency.

この発明によれば、可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つのパラメータを更に用いることより、非可聴音付加手段は被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音を生成することができる。非可聴音の生成時に可聴音に関連するパラメータを用いることにより、非可聴音付加手段は周波数上のゆらぎを反映して非可聴音を生成することができる。   According to the present invention, by further using at least one parameter among the frequency in the audible region, the amplitude at the frequency, and the phase at the frequency, the non-audible sound adding means targets the current psychosomatic state of the subject. Appropriate non-audible sound for changing to a psychosomatic state can be generated. By using the parameter related to the audible sound when generating the non-audible sound, the non-audible sound adding means can generate the non-audible sound reflecting the fluctuation in frequency.

また、本発明においては、前記パラメータには、前記出力手段が前記出力信号を前記被験者に出力してから経過した時間が更に含まれていても良い。   In the present invention, the parameter may further include a time elapsed after the output means outputs the output signal to the subject.

この発明によれば、出力手段が出力信号を被験者に出力してから経過した時間を更なるパラメータとして用いることにより、非可聴音付加手段は被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音を生成することができる。非可聴音の生成時に既に出力した出力信号に関連するパラメータを用いることにより、非可聴音付加手段は時間上のゆらぎを反映して非可聴音を生成することができる。   According to this invention, the non-audible sound adding means changes the current mind-body state of the subject to the target mind-body state by using the time elapsed since the output means outputs the output signal to the subject as a further parameter. A suitable non-audible sound can be generated. By using the parameter related to the output signal already output when generating the non-audible sound, the non-audible sound adding means can generate the non-audible sound reflecting the fluctuation in time.

また、本発明においては、前記出力手段は、前記出力信号の周波数成分のうちで前記非可聴領域における周波数成分を増幅してから、前記出力信号を前記被験者に出力しても良い。   In the present invention, the output means may amplify a frequency component in the non-audible region among the frequency components of the output signal, and then output the output signal to the subject.

この発明によれば、出力手段は、出力信号の周波数成分のうちで非可聴領域における周波数成分を増幅することにより、出力信号の全体において非可聴領域における周波数成分の割合を高めることができる。   According to this invention, the output means can increase the ratio of the frequency component in the non-audible region in the entire output signal by amplifying the frequency component in the non-audible region among the frequency components of the output signal.

また、本発明においては、前記出力手段は、所定の出力頻度、出力時間、または出力時刻に、前記出力信号を前記被験者に出力しても良い。   In the present invention, the output means may output the output signal to the subject at a predetermined output frequency, output time, or output time.

この発明によれば、出力手段は、所定の出力頻度、出力時間、または出力時刻にあわせて出力信号を被験者に出力することにより、被験者の現在の心身状態を目標心身状態に変化させるための最適な出力信号を被験者に提供することができる。   According to the present invention, the output means outputs an output signal to the subject in accordance with a predetermined output frequency, output time, or output time, so that the current psychosomatic state of the subject is changed to the target psychosomatic state. A simple output signal can be provided to the subject.

本発明によれば、データベースに蓄積された音源信号の周波数成分に依存しない周波数成分を有する出力信号を出力することを可能とし、更に当該出力信号により被験者の心身状態を変化させることが可能な音響再生装置を提供することができる。   According to the present invention, it is possible to output an output signal having a frequency component that does not depend on the frequency component of the sound source signal stored in the database, and to further change the subject's mind and body state by the output signal. A playback device can be provided.

以下、添付図面を参照して本発明にかかる音響再生装置の好適な実施形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of a sound reproducing device according to the invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

(心身状態変化システム1の全体構成)
本発明の実施形態に係る心身状態変化システム1の構成について、図1を参照しながら説明する。図1は、心身状態変化システム1の構成概要図である。図1に示すように、心身状態変化システム1は、心身状態計測装置10、外部入力装置20、音源入力装置30、および音響再生装置40から構成される。心身状態計測装置10、外部入力装置20、および音源入力装置30は、それぞれ、音響再生装置40と通信可能に例えば通信インターフェース(I/F、図示せず)を介して接続されている。以下、心身状態変化システム1の各構成要素について詳細に説明する。
(Overall configuration of mind-body state change system 1)
A configuration of a mind-body state change system 1 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a schematic configuration diagram of a mind-body state change system 1. As shown in FIG. 1, the psychosomatic state changing system 1 includes a psychosomatic state measuring device 10, an external input device 20, a sound source input device 30, and a sound reproducing device 40. The psychosomatic state measuring device 10, the external input device 20, and the sound source input device 30 are connected to the sound reproducing device 40 through a communication interface (I / F, not shown), for example. Hereinafter, each component of the mind-body state change system 1 is demonstrated in detail.

(心身状態計測装置10)
心身状態計測装置10は、被験者の現在の心身状態を計測する装置である。図2は、心身状態計測装置10が被験者の現在の心身状態を計測する際に用いる指標の一例と、当該指標の計測方法の一例とを示している。図2に示すように、被験者の「気分」に対する指標としては、「POMS等による心理テストの結果」が用いられ、この指標は「自己筆記式」手法により得ることができる。また、被験者の「認知症の程度」に対する指標としては、「神経心理テストの結果等」が用いられ、この指標は「対面問診式」手法により得ることができる。また、被験者の「脳」に対する指標としては、「脳波、脳血流等を測定した結果」が用いられ、この指標は「脳波計、MRA等」によりリアルタイムで測定することができる。また、被験者の「眼」に対する指標としては、「瞳孔、虹彩、眼球運動、固視微動等の測定結果」が用いられ、この指標は「頭部装着型計測装置等」によりリアルタイムで測定することができる。また、被験者の「身体」に対する指標としては、「体温、脈拍等の測定結果」が用いられ、この指標は「指手首腕等装着型計測装置等」によりリアルタイムで測定することができる。また、被験者の「体液」に対する指標としては、「血液、唾液、発汗等の測定結果」が用いられ、この指標は「血液検査装置、装着型計測装置(唾液、発汗)等」によりリアルタイムで測定することができる。また、被験者の「個体情報」に対する指標としては、「性別、年齢等」が用いられ、この指標は「自己筆記式」手法により得ることができる。
(Mental and physical state measurement device 10)
The psychosomatic state measuring device 10 is a device that measures the current psychosomatic state of a subject. FIG. 2 shows an example of an index used when the psychosomatic state measuring apparatus 10 measures the current psychosomatic state of the subject and an example of a method for measuring the index. As shown in FIG. 2, “result of psychological test by POMS or the like” is used as an index for the subject's “mood”, and this index can be obtained by the “self-written” method. Moreover, as a parameter | index with respect to a test subject's "degree of dementia", the result of a neuropsychological test etc. is used, and this parameter | index can be obtained by the "face-to-face inquiry type" method. In addition, as the index of the subject's “brain”, “results of measuring electroencephalogram, cerebral blood flow, etc.” are used, and this index can be measured in real time by “electroencephalograph, MRA, etc.”. In addition, as an index for the subject's "eye", "measurement results of pupils, irises, eye movements, fixation micromotion, etc." are used, and this index should be measured in real time by a "head-mounted measuring device, etc." Can do. Further, “measurement result of body temperature, pulse, etc.” is used as an index for the “body” of the subject, and this index can be measured in real time by “a wearable measuring device such as a finger wrist arm”. In addition, “measurement result of blood, saliva, sweating, etc.” is used as an index for “body fluid” of the subject, and this indicator is measured in real time by “blood test device, wearable measuring device (saliva, sweating, etc.)” can do. Further, “sex, age, etc.” is used as an index for the “individual information” of the subject, and this index can be obtained by the “self-writing” method.

心身状態計測装置10は、被験者の現在の心身状態を上記指標に基づいて総合的に判断する。被験者の現在の心身状態としては、例えば、「元気がない」、「イライラする」、「集中できない」、「怒りっぽい」、「軽度認知症」、「忘れっぽい」、「気持ちの整理がつかない」、「言葉が出てこない」などがあげられる(後述する図4を参照)。現在の心身状態の判断後に、心身状態計測装置10は、被験者の当該心身状態を特定する情報(以下、「現在状態特定情報」という。)を音響再生装置40に出力する。   The psychosomatic state measuring apparatus 10 comprehensively determines the current state of mind of the subject based on the above index. Examples of the subject's current state of mind and physical condition are, for example, “I am not feeling well”, “I feel frustrated”, “I can't concentrate”, “I feel angry”, “Mild dementia”, “I'm forgetful”, “I can't organize my feelings” ”,“ No words come out ”, etc. (see FIG. 4 described later). After the determination of the current psychosomatic state, the psychosomatic state measuring apparatus 10 outputs information (hereinafter referred to as “current state specifying information”) for specifying the subject's psychosomatic state to the sound reproducing device 40.

(外部入力装置20)
図1に戻り、外部入力装置20は、被験者の現在の心身状態を他の心身状態に変化させる際の目標となる目標心身状態を入力する装置である。外部入力装置20は、例えばキーボード等の入力装置により構成されることができる。心身状態変化システム1を使用する被験者またはセラピストは、外部入力装置20を利用して、目標心身状態を入力することができる。被験者の目標心身状態としては、例えば、「元気がでる」、「さわやかな気分」、「集中力向上」、「穏やかな気分」、「ぼけ防止」、「記憶力向上」、「判断力向上」、「流暢な話しぶり」などがあげられる(後述する図4を参照)。目標心身状態の入力後に、外部入力装置20は、当該目標心身状態を特定する情報(以下、「目標状態特定情報」という。)を音響再生装置40に出力する。なお、外部入力装置20は、後述する音響再生装置40の入力部420として構成されていてもかまわない。
(External input device 20)
Returning to FIG. 1, the external input device 20 is a device that inputs a target psychosomatic state that is a target when the current psychosomatic state of the subject is changed to another psychosomatic state. The external input device 20 can be configured by an input device such as a keyboard. The subject or therapist who uses the mind-body state change system 1 can input the target mind-body state using the external input device 20. Examples of the target mental and physical state of the subject include “I feel well”, “Refreshing mood”, “Improved concentration”, “Smooth mood”, “Prevent blurring”, “Improved memory”, “Improved judgment”, “Fluent talking” (see FIG. 4 described later). After inputting the target psychosomatic state, the external input device 20 outputs information for specifying the target psychosomatic state (hereinafter referred to as “target state specifying information”) to the sound reproducing device 40. The external input device 20 may be configured as an input unit 420 of the sound reproduction device 40 described later.

(音源入力装置30)
音源入力装置30は、格納していた任意の音源信号を音響再生装置40に入力する装置である。音源入力装置30は、例えばCDやSACD(スーパーオーディオCD)により構成されることができ、音源入力装置30に格納された音源信号には人間にとって可聴音のみならず非可聴音も含まれている。なお、本実施形態においては、例えば、20Hz以下の音、または15kHz以上の音を「非可聴音」という。
(Sound source input device 30)
The sound source input device 30 is a device for inputting a stored arbitrary sound source signal to the sound reproducing device 40. The sound source input device 30 can be composed of, for example, a CD or SACD (super audio CD), and the sound source signal stored in the sound source input device 30 includes not only audible sounds but also inaudible sounds for humans. . In the present embodiment, for example, a sound of 20 Hz or less or a sound of 15 kHz or more is referred to as “non-audible sound”.

(音響再生装置40)
音響再生装置40は、被験者の現在の心身状態を目標心身状態に変化させるための非可聴音を生成して被験者に聴かせるための装置である。図3は音響再生装置40のハードウェア構成図である。図3に示すように、音響再生装置40は、物理的には、CPU41、ROM42及びRAM43等の主記憶装置、キーボード及びマウス等の入力デバイス44、ディスプレイ等の出力デバイス45、心身状態計測装置10、外部入力装置20、および音源入力装置30との間でデータの送受信を行うためのネットワークカード等の通信モジュール46、ハードディスク等の補助記憶装置47などを含む通常のコンピュータシステムとして構成される。後述する音響再生装置40の各機能は、CPU41、ROM42、RAM43等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU41の制御の元で入力デバイス44、出力デバイス45、通信モジュール46を動作させると共に、主記憶装置42,43や補助記憶装置47におけるデータの読み出し及び書き込みを行うことで実現される。
(Sound reproduction device 40)
The sound reproducing device 40 is a device for generating a non-audible sound for changing a subject's current mind-body state to a target mind-body state and listening to the subject. FIG. 3 is a hardware configuration diagram of the sound reproducing device 40. As shown in FIG. 3, the sound reproducing device 40 physically includes a CPU 41, a main storage device such as a ROM 42 and a RAM 43, an input device 44 such as a keyboard and a mouse, an output device 45 such as a display, and the psychosomatic state measuring device 10. The computer system includes a communication module 46 such as a network card for transmitting / receiving data to / from the external input device 20 and the sound source input device 30, an auxiliary storage device 47 such as a hard disk, and the like. Each function of the sound reproducing device 40 to be described later allows the input device 44, the output device 45, and the communication module 46 to be controlled under the control of the CPU 41 by loading predetermined computer software on the hardware such as the CPU 41, the ROM 42, and the RAM 43. This is realized by operating and reading and writing data in the main storage devices 42 and 43 and the auxiliary storage device 47.

図1に戻り、音響再生装置40は、機能的には、パラメータ格納部410(格納手段)、入力部420(現在状態入力手段、目標状態入力手段)、パラメータ読出部430(パラメータ読出手段)、非可聴音制御部440(音源入力手段、非可聴音付加手段)、および出力部450(出力手段)を備えて構成される。以下、音響再生装置40の各構成要素について詳細に説明する。   Returning to FIG. 1, the sound reproduction device 40 functionally includes a parameter storage unit 410 (storage unit), an input unit 420 (current state input unit, target state input unit), a parameter reading unit 430 (parameter reading unit), A non-audible sound control unit 440 (sound source input means, non-audible sound addition means) and an output unit 450 (output means) are configured. Hereinafter, each component of the sound reproducing device 40 will be described in detail.

(パラメータ格納部410)
パラメータ格納部410は、被験者の心身状態を特定する複数の心身状態特定情報と、当該複数の心身状態特定情報それぞれの相関関係を特定する複数のパラメータと、を予め格納するものである。図4は、パラメータ格納部410が格納する心身状態特定情報およびパラメータの一例をイメージしている。図4に示すように、パラメータ格納部410は、「元気がない」との被験者の心身状態を特定する心身状態特定情報、および「元気がでる」との被験者の心身状態を特定する心身状態特定情報を格納する。更に、パラメータ格納部410は、「元気がない」との心身状態と「元気がでる」との心身状態との間の相関関係を特定するパラメータとして、パラメータ名が「FM−f−012998」であるパラメータを格納している。
(Parameter storage unit 410)
The parameter storage unit 410 stores in advance a plurality of psychosomatic state specifying information for specifying a subject's psychosomatic state and a plurality of parameters for specifying the correlation between the plurality of psychosomatic state specifying information. FIG. 4 illustrates an example of psychosomatic state specifying information and parameters stored in the parameter storage unit 410. As shown in FIG. 4, the parameter storage unit 410 includes psychosomatic state specifying information for specifying the subject's psychosomatic state of “not healthy”, and psychosomatic state specifying for specifying the psychosomatic state of the subject of “healthy”. Store information. Further, the parameter storage unit 410 has a parameter name “FM-f-012998” as a parameter for specifying a correlation between the mental and physical state of “not healthy” and the mental and physical state of “good”. A certain parameter is stored.

また、パラメータ格納部410は、「イライラする」との被験者の心身状態を特定する心身状態特定情報、「さわやかな気分」との被験者の心身状態を特定する心身状態特定情報、および「イライラする」との心身状態と「さわやかな気分」との心身状態との間の相関関係を特定するパラメータとしてパラメータ名が「FM−f−012999」であるパラメータを格納する。説明を省略するが、「集中できない」、「集中力向上」、「FM−f−013000」など、被験者のその他の心身状態においても上記と同様のことがいえる。なお、パラメータ格納部410は、被験者毎に、上記情報を格納しても良い。   In addition, the parameter storage unit 410 includes psychosomatic state specifying information for specifying the psychosomatic state of the subject as “irritated”, psychosomatic state specifying information for specifying the psychosomatic state of the subject as “refreshing”, and “irritated”. The parameter whose parameter name is “FM-f-012999” is stored as a parameter for specifying the correlation between the psychosomatic state of the body and the mind and body state of the “fresh feeling”. Although the explanation is omitted, the same can be said for other mental and physical states of the subject such as “can't concentrate”, “improvement of concentration” and “FM-f-013000”. The parameter storage unit 410 may store the above information for each subject.

パラメータ格納部410が格納するパラメータは、非可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つである。これに加え、可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つが、上記パラメータに更に含まれていても良い。更に、後述する出力部450が出力信号を被験者に出力してから経過した時間が、上記パラメータに更に含まれていても良い。   The parameter stored in the parameter storage unit 410 is at least one of a frequency in the non-audible region, an amplitude at the frequency, and a phase at the frequency. In addition, at least one of the frequency in the audible region, the amplitude at the frequency, and the phase at the frequency may be further included in the parameter. Furthermore, the time elapsed since the output unit 450 described later outputs an output signal to the subject may be further included in the parameter.

すなわち、図4に示したパラメータ名「FM−f−012998」のパラメータが例えば非可聴領域における特定の周波数を指す場合があり、パラメータ名「FM−f−012999」のパラメータが例えば非可聴領域における特定の周波数および該周波数での振幅を指す場合がある。また、パラメータ名「FM−f−013000」のパラメータが非可聴領域における周波数、該周波数での位相、可聴領域における周波数、および該周波数での振幅を指す場合がある。また、パラメータ名「FM−f−013001」のパラメータが非可聴領域における周波数、該周波数での振幅、および出力部450が出力信号を被験者に出力してから経過した時間を指す場合がある。何れのパラメータが、可聴領域または非可聴領域での周波数、該周波数での振幅、および該周波数での位相、出力後の経過時間のうちで何れを表しているかは、被験者毎に、被験者の現在の心身状態毎に、および被験者の目標心身状態毎に、異なる。これらのパラメータに基づいて後述するように生成された出力信号により、被験者の心身状態を実際に変化させることができる。なお、出力信号を用いて実際に被験者の心身状態を変化させた例については、後述する。   That is, the parameter with the parameter name “FM-f-012998” shown in FIG. 4 may point to a specific frequency in the non-audible region, for example, and the parameter with the parameter name “FM-f-012999” may be in the non-audible region, for example. It may refer to a specific frequency and amplitude at that frequency. In addition, the parameter having the parameter name “FM-f-013000” may indicate a frequency in the non-audible region, a phase at the frequency, a frequency in the audible region, and an amplitude at the frequency. In addition, the parameter of the parameter name “FM-f-013001” may indicate the frequency in the non-audible region, the amplitude at the frequency, and the time elapsed since the output unit 450 output the output signal to the subject. Which parameter represents the frequency in the audible region or non-audible region, the amplitude at the frequency, the phase at the frequency, and the elapsed time after the output, for each subject, For each mental and physical state and for each subject's desired mental and physical state. The psychosomatic state of the subject can be actually changed by an output signal generated as described later based on these parameters. An example of actually changing the subject's mind and body state using the output signal will be described later.

(入力部420)
図1に戻り、入力部420は、被験者の現在の心身状態を特定する現在状態特定情報の入力を心身状態計測装置10より受け付け、且つ被験者の現在の心身状態を他の心身状態に変化させる際の目標となる目標心身状態を特定する目標状態特定情報の入力を外部入力装置20より受け付けるものである。入力部420は、受け付けた現在状態特定情報および目標状態特定情報をパラメータ読出部430に出力する。
(Input unit 420)
Returning to FIG. 1, the input unit 420 receives input of current state specifying information for specifying the current state of mind of the subject from the state of mind measurement device 10 and changes the current state of mind of the subject to another state of mind and body. The external input device 20 accepts input of target state specifying information for specifying a target psychosomatic state as a target. Input unit 420 outputs the received current state specifying information and target state specifying information to parameter reading unit 430.

(パラメータ読出部430)
パラメータ読出部430は、入力部420より現在状態特定情報および目標状態特定情報を入力すると、当該現在状態特定情報および目標状態特定情報間の相関関係を特定するパラメータを、パラメータ格納部410を参照して読み出すものである。例えば、パラメータ読出部430が「元気がない」との被験者の心身状態を特定する心身状態特定情報を現在状態特定情報として入力し、且つ「元気がでる」との被験者の心身状態を特定する心身状態特定情報を目標状態特定情報として入力したとする。この場合に、パラメータ読出部430は、パラメータ格納部410を参照して、パラメータ名が「FM−f−012998」であるパラメータを読み出す(図4を参照)。パラメータ読出部430は、当該読み出したパラメータを非可聴音制御部440に出力する。
(Parameter reading unit 430)
When the parameter reading unit 430 receives the current state specifying information and the target state specifying information from the input unit 420, the parameter reading unit 430 refers to the parameter storage unit 410 for a parameter that specifies the correlation between the current state specifying information and the target state specifying information. Read out. For example, the parameter reading unit 430 inputs, as current state specifying information, psychosomatic state specifying information that specifies the subject's mind and body state that “I am not healthy”, and the mind and body that specifies the subject's mind and body state that “I am well” It is assumed that the state specifying information is input as the target state specifying information. In this case, the parameter reading unit 430 refers to the parameter storage unit 410 and reads a parameter whose parameter name is “FM-f-012998” (see FIG. 4). The parameter reading unit 430 outputs the read parameter to the non-audible sound control unit 440.

(非可聴音制御部440)
非可聴音制御部440は、パラメータ読出部430より入力したパラメータに基づいて、被験者の現在の心身状態を目標心身状態に変化させるために被験者に聴かせる非可聴音を生成するものである。非可聴音制御部440は、非可聴領域における周波数成分を有する非可聴音を生成した後に、音源入力装置30より入力した音源信号に当該非可聴音を付加して出力信号を生成する。非可聴音制御部440は、生成した当該出力信号を出力部450に出力する。
(Non-audible sound control unit 440)
The non-audible sound control unit 440 generates a non-audible sound to be heard by the subject in order to change the current mind-body state of the subject to the target mind-body state based on the parameters input from the parameter reading unit 430. The non-audible sound control unit 440 generates a non-audible sound having a frequency component in the non-audible region, and then adds the non-audible sound to the sound source signal input from the sound source input device 30 to generate an output signal. The non-audible sound control unit 440 outputs the generated output signal to the output unit 450.

図5は、非可聴音制御部440の機能的な構成を示す機能構成図である。図5に示すように、非可聴音制御部440は、非可聴音生成部441および非可聴音付加部442を備える。以下、非可聴音制御部440の各構成要素について詳細に説明する。   FIG. 5 is a functional configuration diagram illustrating a functional configuration of the non-audible sound control unit 440. As shown in FIG. 5, the non-audible sound control unit 440 includes a non-audible sound generation unit 441 and a non-audible sound addition unit 442. Hereinafter, each component of the non-audible sound control unit 440 will be described in detail.

(非可聴音生成部441)
非可聴音生成部441は、パラメータ読出部430より入力したパラメータに基づいて、被験者の現在の心身状態を目標心身状態に変化させることを目的で被験者に聴かせる非可聴音X(t)を生成するものである。非可聴音生成部441は、後述する方法により生成した非可聴音X(t)を非可聴音付加部442に出力する。以下、非可聴音生成部441が非可聴音X(t)を生成する様々な方法について詳細に説明する。
(Non-audible sound generator 441)
The non-audible sound generation unit 441 generates a non-audible sound X (t) to be heard by the subject for the purpose of changing the current mind-body state of the subject to the target mind-body state based on the parameters input from the parameter reading unit 430. To do. The non-audible sound generating unit 441 outputs a non-audible sound X (t) generated by a method described later to the non-audible sound adding unit 442. Hereinafter, various methods by which the non-audible sound generation unit 441 generates the non-audible sound X (t) will be described in detail.

(非可聴音生成方法、その1:周波数、振幅、位相)
まず、非可聴領域における周波数、該周波数での振幅、および該周波数での位相に基づいて、非可聴音を生成する一つの方法について説明する。非可聴音生成部441は、下記数式(1)
X(t)=a{1+sin(2πft―θ)}…(1)
により、非可聴領域における周波数fの周波数成分を有する非可聴音X(t)を生成することができる。ただし、数式(1)において、fは、パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが指す周波数である。また、aは、該パラメータが指す振幅であって、上記周波数fでの振幅を表す。振幅としては、例えば音圧、音の強さ、パワー、エネルギー等が用いられる。また、θは、該パラメータが指す位相であって、上記周波数fでの位相を表す。また、tは時間を表す。なお、0≦θ<2πであり、f≦20Hzおよびf≧15kHzである。
(Non-audible sound generation method, part 1: frequency, amplitude, phase)
First, one method for generating a non-audible sound based on the frequency in the non-audible region, the amplitude at the frequency, and the phase at the frequency will be described. The non-audible sound generation unit 441 uses the following mathematical formula (1).
X (t) = a {1 + sin (2πft−θ)} (1)
Thus, a non-audible sound X (t) having a frequency component of the frequency f in the non-audible region can be generated. However, in Formula (1), f is the frequency which the parameter of the parameter name "FM-f-012998" input from the parameter reading part 430 points out. Further, a is the amplitude indicated by the parameter and represents the amplitude at the frequency f. As the amplitude, for example, sound pressure, sound intensity, power, energy, and the like are used. Θ is a phase indicated by the parameter and represents a phase at the frequency f. T represents time. Note that 0 ≦ θ <2π, f ≦ 20 Hz, and f ≧ 15 kHz.

また、パラメータ読出部430より入力したパラメータがn個の複数の周波数、振幅、および位相を指している場合には、非可聴音生成部441は、下記数式(3)

Figure 2009172371

により、非可聴領域における複数の周波数(f、…、f、…、f)の周波数成分を有する非可聴音X(t)を生成することができる。ただし、数式(3)において、fは、パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが指す複数の周波数のうちの一つである。また、aは、該パラメータが指す複数の振幅のうちの一つであって、上記周波数fでの振幅を表す。また、θは、該パラメータが指す複数の位相のうちの一つであって、上記周波数fでの位相を表す。なお、0≦θ<2πであり、f≦20Hzおよびf≧15kHzである。 When the parameter input from the parameter reading unit 430 indicates n multiple frequencies, amplitudes, and phases, the non-audible sound generation unit 441 uses the following formula (3).
Figure 2009172371

Thus, a non-audible sound X (t) having frequency components of a plurality of frequencies (f 1 ,..., F i ,..., F n ) in the non-audible region can be generated. However, in Formula (3), f i is one of a plurality of frequencies indicated by the parameter of the parameter name “FM-f-012998” input from the parameter reading unit 430, for example. A i is one of a plurality of amplitudes indicated by the parameter and represents the amplitude at the frequency f i . Θ i is one of a plurality of phases indicated by the parameter, and represents a phase at the frequency f i . Note that 0 ≦ θ i <2π, f i ≦ 20 Hz, and f i ≧ 15 kHz.

(非可聴音生成方法、その2:周波数)
次に、非可聴領域における周波数のみに基づいて非可聴音X(t)を生成する方法について、図6を参照しながら説明する。パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが例えば「非可聴領域における任意の周波数」との旨を表している場合に、非可聴音生成部441は、非可聴領域における任意の周波数aの周波数成分を有する非可聴音X(t)を生成する。図6(a)は非可聴領域における任意の周波数aを示している。
(Non-audible sound generation method, Part 2: Frequency)
Next, a method for generating the non-audible sound X (t) based only on the frequency in the non-audible region will be described with reference to FIG. For example, when the parameter with the parameter name “FM-f-012998” input from the parameter reading unit 430 indicates, for example, “arbitrary frequency in the non-audible region”, the non-audible sound generating unit 441 A non-audible sound X (t) having a frequency component of an arbitrary frequency a in the region is generated. FIG. 6A shows an arbitrary frequency a in the non-audible region.

また、パラメータ読出部430より入力したパラメータが例えば「非可聴領域における任意の複数の周波数」との旨を表している場合に、非可聴音生成部441は、非可聴領域における任意の複数の周波数a、b、cの周波数成分を有する非可聴音X(t)を生成する。図6(b)は非可聴領域における任意の複数の周波数a、b、cを示している。   In addition, when the parameter input from the parameter reading unit 430 indicates, for example, “arbitrary plural frequencies in the non-audible region”, the non-audible sound generation unit 441 selects the plural plural frequencies in the non-audible region. A non-audible sound X (t) having frequency components a, b, and c is generated. FIG. 6B shows a plurality of arbitrary frequencies a, b, and c in the non-audible region.

また、パラメータ読出部430より入力したパラメータが例えば「非可聴領域における特定の周波数A」との旨を表している場合に、非可聴音生成部441は、非可聴領域における特定の周波数Aの周波数成分を有する非可聴音X(t)を生成する。図6(c)は非可聴領域における特定の周波数Aを示している。   In addition, when the parameter input from the parameter reading unit 430 indicates, for example, “a specific frequency A in the non-audible region”, the non-audible sound generation unit 441 has the frequency of the specific frequency A in the non-audible region. A non-audible sound X (t) having a component is generated. FIG. 6C shows a specific frequency A in the non-audible region.

また、パラメータ読出部430より入力したパラメータが例えば「非可聴領域における特定の複数の周波数A、B、C」との旨を表している場合に、非可聴音生成部441は、非可聴領域における特定の複数の周波数A、B、Cの周波数成分を有する非可聴音X(t)を生成する。図6(d)は非可聴領域における特定の複数の周波数A、B、Cを示している。   In addition, when the parameter input from the parameter reading unit 430 indicates, for example, “a plurality of specific frequencies A, B, and C in the non-audible region”, the non-audible sound generation unit 441 performs the processing in the non-audible region. A non-audible sound X (t) having a plurality of specific frequency components A, B, and C is generated. FIG. 6D shows specific frequencies A, B, and C in the non-audible region.

また、パラメータ読出部430より入力したパラメータが例えば「非可聴領域における特定の周波数A、および当該特定の周波数Aに特定値αを加算した周波数」との旨を表している場合に、非可聴音生成部441は、非可聴領域における特定の周波数A、および当該特定の周波数Aに特定値αを加算した周波数A+αやA+2αの周波数成分を有する非可聴音X(t)を生成する。図6(e)は非可聴領域における特定の周波数A、および当該特定の周波数Aに特定値αを加算した周波数A+αやA+2αを示している。   When the parameter input from the parameter reading unit 430 indicates, for example, “a specific frequency A in the non-audible region and a frequency obtained by adding the specific value α to the specific frequency A”, the non-audible sound The generation unit 441 generates a non-audible sound X (t) having a specific frequency A in the non-audible region and frequency components A + α and A + 2α obtained by adding the specific value α to the specific frequency A. FIG. 6E shows a specific frequency A in the non-audible region and frequencies A + α and A + 2α obtained by adding a specific value α to the specific frequency A.

(非可聴音生成方法、その3:振幅)
次に、振幅に基づいて非可聴音を生成する方法について、図7を参照しながら説明する。パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが例えば「任意の振幅」との旨を表している場合に、非可聴音生成部441は、任意の振幅dを有する非可聴音X(t)を生成する。図7(a)は、任意の振幅d、および任意の非可聴周波数aを示している。
(Non-audible sound generation method, part 3: amplitude)
Next, a method for generating a non-audible sound based on the amplitude will be described with reference to FIG. For example, when the parameter of the parameter name “FM-f-012998” input from the parameter reading unit 430 indicates, for example, “arbitrary amplitude”, the non-audible sound generation unit 441 has an arbitrary amplitude d. A non-audible sound X (t) is generated. FIG. 7A shows an arbitrary amplitude d and an arbitrary inaudible frequency a.

また、パラメータ読出部430より入力したパラメータが例えば「特定の振幅D」との旨を表している場合に、非可聴音生成部441は、特定の振幅Dを有する非可聴音X(t)を生成する。図7(b)は、特定の振幅D、および任意の非可聴周波数aを示している。   In addition, when the parameter input from the parameter reading unit 430 indicates, for example, “specific amplitude D”, the non-audible sound generation unit 441 generates the non-audible sound X (t) having the specific amplitude D. Generate. FIG. 7 (b) shows a specific amplitude D and an arbitrary inaudible frequency a.

また、パラメータ読出部430より入力したパラメータが例えば「特定値E以上の振幅」との旨を表している場合に、非可聴音生成部441は、特定値E以上の振幅Dを有する非可聴音X(t)を生成する。図7(c)は、特定値E以上の振幅D、および任意の非可聴周波数aを示している。   Further, when the parameter input from the parameter reading unit 430 indicates, for example, that “the amplitude is greater than or equal to the specific value E”, the non-audible sound generation unit 441 has the non-audible sound having the amplitude D that is greater than or equal to the specific value E. X (t) is generated. FIG. 7C shows an amplitude D equal to or greater than a specific value E and an arbitrary inaudible frequency a.

また、パラメータ読出部430より入力したパラメータが例えば「特定値F以下の振幅」との旨を表している場合に、非可聴音生成部441は、特定値F以下の振幅Dを有する非可聴音X(t)を生成する。図7(d)は、特定値F以下の振幅D、および任意の非可聴周波数aを示している。   Further, when the parameter input from the parameter reading unit 430 indicates, for example, that “the amplitude is less than or equal to the specific value F”, the non-audible sound generation unit 441 has the non-audible sound having the amplitude D that is less than or equal to the specific value F. X (t) is generated. FIG. 7D shows an amplitude D equal to or less than a specific value F and an arbitrary inaudible frequency a.

また、パラメータ読出部430より入力したパラメータが例えば「特定値Eと他の特定値Fとの間の振幅」との旨を表している場合に、非可聴音生成部441は、特定値Eと他の特定値Fとの間の振幅Dを有する非可聴音X(t)を生成する。図7(e)は特定値Eと他の特定値Fとの間の振幅D、および任意の非可聴周波数aを示している。   In addition, when the parameter input from the parameter reading unit 430 indicates, for example, “amplitude between the specific value E and another specific value F”, the non-audible sound generation unit 441 sets the specific value E and A non-audible sound X (t) having an amplitude D between other specific values F is generated. FIG. 7E shows an amplitude D between a specific value E and another specific value F, and an arbitrary inaudible frequency a.

(非可聴音生成方法、その4:位相)
次に、位相に基づいて非可聴音を生成する方法について、図8および図9を参照しながら説明する。パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが例えば「非可聴領域における特定の周波数A、および当該特定の周波数Aからの位相差がRとなる非可聴領域における特定の周波数B」との旨を表しているとする。この場合に、非可聴音生成部441は、非可聴領域における特定の周波数A、および当該特定の周波数Aから位相差Rとなる非可聴領域における特定の周波数Bの周波数成分を有する非可聴音X(t)を生成する。図8(a)および(b)は、非可聴領域における特定の周波数A、および当該特定の周波数Aから位相差Rとなる非可聴領域における特定の周波数Bを示している。
(Non-audible sound generation method, part 4: phase)
Next, a method for generating a non-audible sound based on the phase will be described with reference to FIGS. 8 and 9. The parameter of the parameter name “FM-f-012998” input from the parameter reading unit 430 is, for example, “specific frequency A in the non-audible region and specification in the non-audible region where the phase difference from the specific frequency A is R”. ”Frequency B”. In this case, the non-audible sound generation unit 441 has a specific frequency A in the non-audible area and a non-audible sound X having a specific frequency B in the non-audible area having a phase difference R from the specific frequency A. (T) is generated. FIGS. 8A and 8B show a specific frequency A in the non-audible region and a specific frequency B in the non-audible region having a phase difference R from the specific frequency A. FIG.

また、パラメータ読出部430より入力したパラメータが例えば「可聴領域における特定の周波数A、および当該特定の周波数Aからの位相差がRとなる非可聴領域における特定の周波数B」との旨を表しているとする。この場合に、非可聴音生成部441は、可聴領域における特定の周波数A、および当該特定の周波数Aから位相差Rとなる非可聴領域における特定の周波数Bの周波数成分を有する非可聴音X(t)を生成する。図9(a)および(b)は、可聴領域における特定の周波数A、および当該特定の周波数Aから位相差Rとなる非可聴領域における特定の周波数Bを示している。   Further, the parameter input from the parameter reading unit 430 represents, for example, “a specific frequency A in the audible region and a specific frequency B in the non-audible region where the phase difference from the specific frequency A is R”. Suppose that In this case, the non-audible sound generation unit 441 has a specific frequency A in the audible region and a non-audible sound X (having a frequency component of the specific frequency B in the non-audible region having a phase difference R from the specific frequency A ( t). FIGS. 9A and 9B show a specific frequency A in the audible region and a specific frequency B in the non-audible region where the phase difference R is from the specific frequency A. FIG.

(非可聴音生成方法、その5:周波数上のゆらぎ)
次に、周波数上のゆらぎに基づいて非可聴音を生成する方法について、図10を参照しながら説明する。パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが例えば「G=func(H)を満足させる非可聴領域における周波数および振幅、ただし、Gは非可聴領域における周波数対振幅の面積、Hは可聴領域における周波数対振幅の面積、funcは所定の関数」との旨を表しているとする。この場合に、非可聴音生成部441は、まず、「G=func(H)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内での各周波数に対応するそれぞれの振幅を計算する。そして、非可聴音生成部441は、当該計算の結果である特定の周波数範囲Aの周波数成分を有し、且つ周波数範囲A内の各周波数に対応するそれぞれの振幅を有する非可聴音X(t)を生成する。図10は、非可聴領域における周波数対振幅の面積G、可聴領域における周波数対振幅の面積H、および計算の結果である特定の周波数範囲Aを示している。なお、この場合の可聴領域における周波数対振幅の面積Hは、音源入力装置30より入力した音源信号の可聴領域における周波数対振幅の面積であっても良い。
(Non-audible sound generation method, 5: Fluctuation in frequency)
Next, a method for generating a non-audible sound based on frequency fluctuation will be described with reference to FIG. The frequency and amplitude in the non-audible region where the parameter of the parameter name “FM-f-012998” input from the parameter reading unit 430 satisfies, for example, “G = func (H)”, where G is the frequency versus amplitude in the non-audible region , H represents the area of frequency versus amplitude in the audible region, and func represents a predetermined function. In this case, the non-audible sound generation unit 441 firstly selects a specific frequency range A in the non-audible region that satisfies “G = func (H)” and each frequency corresponding to each frequency in the frequency range A. Calculate the amplitude. Then, the non-audible sound generation unit 441 has a frequency component of a specific frequency range A that is a result of the calculation, and a non-audible sound X (t having each amplitude corresponding to each frequency in the frequency range A. ) Is generated. FIG. 10 shows a frequency versus amplitude area G in the non-audible region, a frequency versus amplitude area H in the audible region, and a specific frequency range A that is the result of the calculation. In this case, the frequency-to-amplitude area H in the audible region may be the frequency-to-amplitude area in the audible region of the sound source signal input from the sound source input device 30.

以下では、周波数上のゆらぎに基づいて非可聴音を生成する他のバリエーションについて、図11〜図15を参照しながら更に説明する。ただし、可聴領域における周波数対振幅の関係と非可聴領域における周波数対振幅の関係とを比較することにより、非可聴領域での特定の周波数および振幅を計算してから非可聴音X(t)を生成することについては共通するため、特に図11および図12を参照した説明では、図10の例と比べて異なる点についてのみ説明する。   Hereinafter, other variations for generating a non-audible sound based on fluctuations in frequency will be further described with reference to FIGS. However, the non-audible sound X (t) is calculated after calculating the specific frequency and amplitude in the non-audible region by comparing the relationship between frequency and amplitude in the audible region and the relationship between frequency and amplitude in the non-audible region. Since the generation is common, in the description with reference to FIG. 11 and FIG. 12, only differences from the example in FIG. 10 will be described.

図11(a)は、図10に比べると、可聴領域における周波数対振幅の面積が複数の部分的な面積H、…、Hに分かれている場合を示す。この場合に、非可聴音生成部441は、「G=func(H、…、H)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内での各周波数に対応するそれぞれの振幅を計算する。 FIG. 11A shows a case where the area of frequency versus amplitude in the audible region is divided into a plurality of partial areas H 1 ,..., H n as compared with FIG. In this case, the non-audible sound generation unit 441 generates a specific frequency range A in the non-audible region that satisfies “G = func (H 1 ,..., H n )” and each frequency in the frequency range A. Calculate each corresponding amplitude.

図11(b)は、図10に比べると、非可聴領域における周波数対振幅の面積が複数の部分的な面積G、…、Gに分かれている場合を示す。この場合に、非可聴音生成部441は、「G=func(H)、…、G=func(H)」をそれぞれ満足させる非可聴領域における特定の複数の周波数範囲A、…、A、および当該複数の周波数範囲A、…、A内での各周波数に対応するそれぞれの振幅を計算する。 FIG. 11B shows a case where the area of frequency versus amplitude in the non-audible region is divided into a plurality of partial areas G 1 ,..., G n as compared with FIG. In this case, the non-audible sound generation unit 441 includes a plurality of specific frequency ranges A 1 in the non-audible region that satisfy “G 1 = func 1 (H),..., G n = func n (H)”, respectively. ..., a n, and the plurality of frequency ranges a 1, ..., to calculate the respective amplitude for each frequency in the a n.

図11(c)は、図10に比べると、可聴領域および非可聴領域における周波数対振幅の面積の両方が複数の部分的な面積H、…、HおよびG、…、Gに分かれている場合を示す。この場合に、非可聴音生成部441は、「G=func(H、…、H)、…、G=func(H、…、H)」をそれぞれ満足させる非可聴領域における特定の複数の周波数範囲A、…、A、および当該複数の周波数範囲A、…、A内での各周波数に対応するそれぞれの振幅を計算する。 Compared with FIG. 10, FIG. 11 (c) shows that both the area of the frequency vs. amplitude in the audible region and the non-audible region have a plurality of partial areas H 1 ,..., H n and G 1 ,. The case where it is divided is shown. In this case, the non-audible sound generating unit 441 satisfies “G 1 = func 1 (H 1 ,..., H n ),..., G n = func n (H 1 ,..., H n )”. a plurality of specific frequency ranges a 1 in the audible region, ..., a n, and the plurality of frequency ranges a 1, ..., to calculate the respective amplitude for each frequency in the a n.

図11(d)は、図10に比べると、可聴領域における周波数対振幅の面積が一つの部分的な面積Hである場合を示す。この場合に、非可聴音生成部441は、「G=func(H)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内での各周波数に対応するそれぞれの振幅を計算する。 FIG. 11D shows a case where the area of frequency vs. amplitude in the audible region is one partial area H 1 compared to FIG. In this case, the non-audible sound generation unit 441 has a specific frequency range A in the non-audible region that satisfies “G = func (H 1 )”, and each amplitude corresponding to each frequency within the frequency range A. Calculate

図12(a)は、図10に比べると、非可聴領域における周波数対振幅の面積が一つの部分的な面積Gである場合を示す。この場合に、非可聴音生成部441は、「G=func(H)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内での各周波数に対応するそれぞれの振幅を計算する。 FIG. 12A shows a case where the area of frequency vs. amplitude in the non-audible region is one partial area G 1 compared to FIG. In this case, the non-audible sound generation unit 441 has a specific frequency range A 1 in the non-audible region that satisfies “G 1 = func (H)”, and each frequency corresponding to each frequency in the frequency range A 1 . Calculate the amplitude of.

図12(b)は、図10に比べると、可聴領域および非可聴領域における周波数対振幅の面積の両方が一つの部分的な面積HおよびGである場合を示す。この場合に、非可聴音生成部441は、「G=func(H)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内での各周波数に対応するそれぞれの振幅を計算する。 FIG. 12 (b) shows a case where both the area of the frequency versus the amplitude in the audible region and the non-audible region are one partial area H 1 and G 1 compared to FIG. In this case, the non-audible sound generation unit 441 corresponds to a specific frequency range A 1 in the non-audible region that satisfies “G 1 = func (H 1 )” and each frequency in the frequency range A 1 . Calculate the amplitude of each.

図12(c)は、図10に比べると、可聴領域における周波数対振幅の面積が一つの部分的な面積Hであり、且つ非可聴領域における周波数対振幅の面積が複数の部分的な面積G、…、Gに分かれている場合を示す。この場合に、非可聴音生成部441は、「G=func(H)、…、G=func(H)」をそれぞれ満足させる非可聴領域における特定の複数の周波数範囲A、…、A、および当該複数の周波数範囲A、…、A内での各周波数に対応するそれぞれの振幅を計算する。 FIG. 12 (c), as compared to FIG. 10, a frequency-to-area one partial area H 1 of the amplitude in the audible region, and the non-audible frequency pairs in the domain amplitude partial area an area multiple of G 1, ..., shows the case where is divided into G n. In this case, the non-audible sound generation unit 441 includes a plurality of specific frequency ranges A in the non-audible region that respectively satisfy “G 1 = func 1 (H 1 ),..., G n = func n (H 1 )”. 1, ..., a n, and the plurality of frequency ranges a 1, ..., to calculate the respective amplitude for each frequency in the a n.

図12(d)は、図10に比べると、可聴領域における周波数対振幅の面積が複数の部分的な面積H、…、Hに分かれており、且つ非可聴領域における周波数対振幅の面積が一つの部分的な面積Gである場合を示す。この場合に、非可聴音生成部441は、「G=func(H、…、H)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内での各周波数に対応するそれぞれの振幅を計算する。 Compared with FIG. 10, FIG. 12D shows that the area of frequency versus amplitude in the audible region is divided into a plurality of partial areas H 1 ,..., H n and the area of frequency versus amplitude in the non-audible region. There shows a case where one of the partial area G 1. In this case, the non-audible sound generating unit 441, "G 1 = func (H 1, ..., H n) " particular in the non-audible range to satisfy the frequency range A 1, and in the frequency range A within 1 Each amplitude corresponding to each frequency is calculated.

以上では、図10〜図12を参照しながら、可聴領域および非可聴領域の両方において周波数対振幅の面積を考慮した方法について説明した。以下では、図13を参照しながら、可聴領域では周波数対振幅の面積を考慮するが、非可聴領域では周波数対振幅の面積を考慮しない方法について説明する。パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが例えば「D=func(H)により定まる振幅、および当該振幅に対応する非可聴領域における周波数、ただし、Hは可聴領域における周波数対振幅の面積、funcは所定の関数」との旨を表しているとする。この場合に、非可聴音生成部441は、「D=func(H)」を満足させる特定の振幅D、および当該振幅Dに対応する非可聴領域における特定の周波数Aを計算する。そして、非可聴音生成部441は、当該計算の結果である特定の振幅Dを有し、且つ当該振幅Dに対応する非可聴領域における特定の周波数Aの周波数成分を有する非可聴音X(t)を生成する。図13(a)は、可聴領域における周波数対振幅の面積H、D=func(H)を満足させる特定の振幅D、および当該振幅Dに対応する非可聴領域における特定の周波数Aを示している。 In the above, the method which considered the area of frequency versus amplitude in both the audible region and the non-audible region has been described with reference to FIGS. In the following, a method will be described with reference to FIG. 13 in which the area of frequency vs. amplitude is considered in the audible area, but the area of frequency vs. amplitude is not considered in the non-audible area. For example, the parameter of the parameter name “FM-f-012998” input from the parameter reading unit 430 has an amplitude determined by, for example, “D 1 = func (H), and a frequency in a non-audible region corresponding to the amplitude, where H is audible It is assumed that the area of frequency versus amplitude in a region, func represents a predetermined function. In this case, the non-audible sound generation unit 441 calculates a specific amplitude D 1 that satisfies “D 1 = func (H)” and a specific frequency A 1 in the non-audible region corresponding to the amplitude D 1. . Then, the non-audible sound generation unit 441 has a specific amplitude D 1 which is a result of the calculation, and a non-audible sound having a specific frequency component A 1 in the non-audible region corresponding to the amplitude D 1. X (t) is generated. 13 (a) shows a frequency versus amplitude area H in the audible range, D 1 = func particular amplitude D to satisfy the (H) 1, and the amplitude D specific frequency A 1 in the inaudible region corresponding to the 1 Is shown.

図13(b)は、図13(a)に比べると、可聴領域における周波数対振幅の面積が複数の部分的な面積H、…、Hに分かれている場合を示す。この場合に、非可聴音生成部441は、「D=func(H、…、H)」を満足させる特定の振幅D、および当該振幅Dに対応する非可聴領域における特定の周波数Aを計算する。 FIG. 13B shows a case where the area of frequency vs. amplitude in the audible region is divided into a plurality of partial areas H 1 ,..., H n as compared with FIG. In this case, the non-audible sound generation unit 441 performs a specific amplitude D 1 that satisfies “D 1 = func (H 1 ,..., H n )” and a specific amplitude in the non-audible region corresponding to the amplitude D 1 . to calculate the frequency a 1.

図13(c)は、図13(a)に比べると、「振幅=func(H)」を満足させる特定の振幅を複数求める場合を示す。この場合に、非可聴音生成部441は、「D=func(H)、…、D=func(H)」を満足させる特定の複数の振幅D、…、D、および当該複数の振幅D、…、Dのそれぞれに対応する非可聴領域における特定の周波数A、…、Aを計算する。 FIG. 13C shows a case where a plurality of specific amplitudes satisfying “amplitude = func (H)” are obtained as compared with FIG. In this case, the non-audible sound generation unit 441 includes a plurality of specific amplitudes D 1 ,..., D n that satisfy “D 1 = func 1 (H),..., D n = func n (H)”, and the plurality of amplitude D 1, ..., a specific frequency a 1 in the inaudible region corresponding to each of the D n, ..., calculating the a n.

図13(d)は、図13(a)に比べると、図13(b)の場合と図13(c)の場合とが重なった場合を示す。この場合に、非可聴音生成部441は、「D=func(H、…、H)、…、D=func(H、…、H)」を満足させる特定の複数の振幅D、…、D、および当該複数の振幅D、…、Dのそれぞれに対応する非可聴領域における特定の周波数A、…、Aを計算する。 FIG. 13D shows a case where the case of FIG. 13B and the case of FIG. 13C overlap as compared to FIG. In this case, the non-audible sound generation unit 441 performs a specific operation satisfying “D 1 = func 1 (H 1 ,..., H n ),..., D n = func n (H 1 ,..., H n )”. a plurality of amplitude D 1, ..., D n, and the plurality of amplitude D 1, ..., a specific frequency a 1 in the inaudible region corresponding to each of the D n, ..., calculating the a n.

図13(e)は、図13(a)に比べると、可聴領域における周波数対振幅の面積が一つの部分的な面積Hである場合を示す。この場合に、非可聴音生成部441は、「D=func(H)」を満足させる特定の振幅D、および当該振幅Dに対応する非可聴領域における特定の周波数Aを計算する。 Figure 13 (e), as compared in FIG. 13 (a), it shows a case where the area of the frequency versus amplitude in the audible region is one of the partial area H 1. In this case, the non-audible sound generation unit 441 calculates a specific amplitude D 1 that satisfies “D 1 = func (H 1 )”, and a specific frequency A 1 in the non-audible region corresponding to the amplitude D 1. To do.

図13(f)は、図13(a)に比べると、図13(c)の場合と図13(e)の場合とが重なった場合を示す。この場合に、非可聴音生成部441は、「D=func(H)、…、D=func(H)」を満足させる特定の複数の振幅D、…、D、および当該複数の振幅D、…、Dのそれぞれに対応する非可聴領域における特定の周波数A、…、Aを計算する。 FIG. 13F shows a case where the case of FIG. 13C and the case of FIG. 13E overlap as compared with FIG. In this case, the non-audible sound generation unit 441 has a plurality of specific amplitudes D 1 ,..., D n that satisfy “D 1 = func 1 (H 1 ),..., D n = func n (H 1 )”. , and the plurality of amplitude D 1, ..., a specific frequency a 1 in the inaudible region corresponding to each of the D n, ..., calculating the a n.

以下では、図14を参照しながら、非可聴領域では周波数対振幅の面積を考慮するが、可聴領域では周波数対振幅の面積を考慮しない方法について説明する。パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが例えば「G=func(E)を満足させる非可聴領域における周波数および振幅、ただし、Gは非可聴領域における周波数対振幅の面積、Eは可聴領域における特定の周波数aに対応する特定の振幅、funcは所定の関数」との旨を表しているとする。この場合に、非可聴音生成部441は、「G=func(E)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内の各周波数に対応するそれぞれの振幅を計算する。そして、非可聴音生成部441は、当該計算の結果である特定の周波数範囲A内の各周波数成分を有し、且つ周波数範囲A内の各周波数に対応するそれぞれの振幅を有する非可聴音X(t)を生成する。図14(a)は、可聴領域における特定の振幅E、非可聴領域における周波数対振幅の面積G、および計算結果である特定の周波数範囲Aを示している。 Hereinafter, a method will be described with reference to FIG. 14 in which the area of frequency vs. amplitude is considered in the non-audible area but the area of frequency vs. amplitude is not considered in the audible area. The frequency and amplitude in the non-audible region where the parameter of the parameter name “FM-f-012998” input from the parameter reading unit 430 satisfies, for example, “G = func (E 1 )”, where G is a frequency pair in the non-audible region It is assumed that the amplitude area, E 1 represents a specific amplitude corresponding to a specific frequency a in the audible region, and func represents a predetermined function. In this case, the non-audible sound generation unit 441 calculates a specific frequency range A in the non-audible region that satisfies “G = func (E 1 )” and each amplitude corresponding to each frequency in the frequency range A. calculate. Then, the non-audible sound generation unit 441 has each frequency component in a specific frequency range A that is a result of the calculation, and has a respective amplitude corresponding to each frequency in the frequency range A. (T) is generated. FIG. 14A shows a specific amplitude E 1 in the audible region, an area G of frequency versus amplitude in the non-audible region, and a specific frequency range A that is the calculation result.

以下では、非可聴領域では周波数対振幅の面積を考慮するが、可聴領域では周波数対振幅の面積を考慮しない方法の他のバリエーションについて、図14(b)〜図14(f)を参照しながら更に説明する。ただし、図14(a)の例と比べて異なる点についてのみ説明する。図14(b)は、図14(a)に比べると、考慮すべき可聴領域における特定の周波数および振幅が複数存在する場合を示す。この場合に、非可聴音生成部441は、「G=func(E、…、E)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内の各周波数に対応するそれぞれの振幅を計算する。 In the following, while considering the area of frequency vs. amplitude in the non-audible region, other variations of the method not considering the area of frequency vs. amplitude in the audible region will be described with reference to FIGS. Further explanation will be given. However, only differences from the example of FIG. 14A will be described. FIG. 14B shows a case where there are a plurality of specific frequencies and amplitudes in the audible region to be considered, as compared with FIG. In this case, the non-audible sound generation unit 441 corresponds to a specific frequency range A in the non-audible region that satisfies “G = func (E 1 ,..., E n )” and each frequency in the frequency range A. Calculate the amplitude of each.

図14(c)は、図14(a)に比べると、非可聴領域における周波数対振幅の面積が複数の部分的な面積G、…、Gに分かれている場合を示す。この場合に、非可聴音生成部441は、「G=func(E)、…、G=func(E)」を満足させる非可聴領域における特定の複数の周波数範囲A、…、A、および当該複数の周波数範囲A、…、A内の各周波数に対応するそれぞれの振幅を計算する。 FIG. 14C shows a case where the area of frequency versus amplitude in the non-audible region is divided into a plurality of partial areas G 1 ,..., G n as compared to FIG. In this case, the non-audible sound generation unit 441 includes a plurality of specific frequency ranges A 1 in the non-audible region that satisfies “G 1 = func 1 (E 1 ),..., G n = func n (E 1 )”. , ..., a n, and the plurality of frequency ranges a 1, ..., to calculate the respective amplitude for each frequency in the a n.

図14(d)は、図14(a)に比べると、図14(b)の場合と図14(c)の場合とが重なった場合を示す。この場合に、非可聴音生成部441は、「G=func(E、…、E)、…、G=func(E、…、E)」を満足させる非可聴領域における特定の複数の周波数範囲A、…、A、および当該複数の周波数範囲A、…、A内の各周波数に対応するそれぞれの振幅を計算する。 FIG. 14D shows a case where the case of FIG. 14B and the case of FIG. 14C overlap as compared with FIG. In this case, the non-audible sound generation unit 441 satisfies “G 1 = func 1 (E 1 ,..., E n ),..., G n = func n (E 1 ,..., E n )”. a plurality of specific frequency ranges a 1 in the area, ..., a n, and the plurality of frequency ranges a 1, ..., to calculate the respective amplitude for each frequency in the a n.

図14(e)は、図14(a)に比べると、非可聴領域における周波数対振幅の面積が一つの部分的な面積Gである場合を示す。この場合に、非可聴音生成部441は、「G=func(E)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内の各周波数に対応するそれぞれの振幅を計算する。 FIG. 14 (e) than in FIG. 14 (a), shows a case where the area of the frequency versus amplitude in the non-audible range is one of the partial area G 1. In this case, the non-audible sound generation unit 441 has a specific frequency range A 1 in the non-audible region that satisfies “G 1 = func (E 1 )” and each frequency corresponding to each frequency in the frequency range A 1 . Calculate the amplitude of.

図14(f)は、図14(a)に比べると、図14(b)の場合と図14(e)の場合とが重なった場合を示す。この場合に、非可聴音生成部441は、「G=func(E、…、E)」を満足させる非可聴領域における特定の周波数範囲A、および当該周波数範囲A内の各周波数に対応するそれぞれの振幅を計算する。 FIG. 14 (f) shows a case where the case of FIG. 14 (b) and the case of FIG. 14 (e) overlap with each other as compared with FIG. 14 (a). In this case, the non-audible sound generation unit 441 includes the specific frequency range A 1 in the non-audible region that satisfies “G 1 = func (E 1 ,..., E n )”, and each frequency range in the frequency range A 1 . Each amplitude corresponding to the frequency is calculated.

以下では、図15を参照しながら、可聴領域における周波数対振幅の面積、および非可聴領域における周波数対振幅の面積の両方とも考慮しない方法について説明する。パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが例えば「D=func(E)を満足させる特定の振幅D、および当該特定の振幅Dに対応する非可聴領域における特定の周波数A、ただし、Eは可聴領域における特定の周波数aに対応する特定の振幅、funcは所定の関数」との旨を表しているとする。この場合に、非可聴音生成部441は、「D=func(E)」を満足させる特定の振幅D、および当該特定の振幅Dに対応する非可聴領域における特定の周波数Aを計算する。そして、非可聴音生成部441は、当該計算の結果である特定の振幅Dを有し、且つ当該特定の振幅Dに対応する非可聴領域における特定の周波数Aの周波数成分を有する非可聴音X(t)を生成する。図15(a)は、可聴領域における特定の周波数aに対応する特定の振幅E、および計算結果である特定の振幅Dと特定の周波数Aを示している。 In the following, a method that does not consider both the frequency versus amplitude area in the audible region and the frequency versus amplitude area in the non-audible region will be described with reference to FIG. Parameter reading unit 430 for example parameter name input from the "FM-f-012998" parameters, for example, "D 1 = func (E 1) specific to satisfy the amplitude D 1, and the specific non-corresponding to the amplitude D 1 A specific frequency A 1 in the audible region, where E 1 represents a specific amplitude corresponding to the specific frequency a 1 in the audible region, and func represents a predetermined function. In this case, the non-audible sound generating unit 441, "D 1 = func (E 1) 'specific to satisfy the amplitude D 1, and the specific specific frequency A 1 in the inaudible region corresponding to the amplitude D 1 Calculate Then, the non-audible sound generation unit 441 has a specific amplitude D 1 that is a result of the calculation, and a non-audible sound component that has a frequency component of a specific frequency A 1 in the non-audible region corresponding to the specific amplitude D 1. An audible sound X (t) is generated. FIG. 15A shows a specific amplitude E 1 corresponding to a specific frequency a 1 in the audible region, and a specific amplitude D 1 and a specific frequency A 1 which are calculation results.

以下では、可聴領域における周波数対振幅の面積、および非可聴領域における周波数対振幅の面積の両方とも考慮しない方法の他のバリエーションについて、図15(b)〜図15(d)を参照しながら更に説明する。ただし、図15(a)の例と比べて異なる点についてのみ説明する。図15(b)は、図15(a)に比べると、考慮すべき可聴領域における特定の周波数および振幅が複数存在する場合を示す。この場合に、非可聴音生成部441は、「D=func(E、…、E)」を満足させる特定の振幅D、および当該特定の振幅Dに対応する非可聴領域における特定の周波数Aを計算する。 In the following, other variations of the method that do not consider both the frequency vs. amplitude area in the audible region and the frequency vs. amplitude area in the non-audible region will be further described with reference to FIGS. 15 (b) to 15 (d). explain. However, only differences from the example of FIG. 15A will be described. FIG. 15B shows a case where there are a plurality of specific frequencies and amplitudes in the audible region to be considered, as compared to FIG. In this case, the non-audible sound generation unit 441 has a specific amplitude D 1 that satisfies “D 1 = func (E 1 ,..., E n )” and a non-audible region corresponding to the specific amplitude D 1 . calculating a specific frequency a 1.

図15(c)は、図15(a)に比べると、計算すべき特定の振幅および周波数が複数存在する場合を示す。この場合に、非可聴音生成部441は、「D=func(E)、…、D=func(E)」を満足させる特定の複数の振幅D、…、D、および当該特定の複数の振幅D、…、Dそれぞれに対応する非可聴領域における特定の複数の周波数A、…、Aを計算する。 FIG. 15C shows a case where there are a plurality of specific amplitudes and frequencies to be calculated as compared to FIG. In this case, the non-audible sound generation unit 441 has a plurality of specific amplitudes D 1 ,..., D n that satisfy “D 1 = func 1 (E 1 ),..., D n = func n (E 1 )”. and the specific plurality of amplitude D 1,, ..., a plurality of specific frequencies in the inaudible region corresponding to the respective D n a 1, ..., calculating the a n.

図15(d)は、図15(a)に比べると、図15(b)の場合と図15(c)の場合とが重なった場合を示す。この場合に、非可聴音生成部441は、「D=func(E、…、E)、…、D=func(E、…、E)」を満足させる特定の複数の振幅D、…、D、および当該特定の複数の振幅D、…、Dそれぞれに対応する非可聴領域における特定の複数の周波数A、…、Aを計算する。 FIG. 15D shows a case where the case of FIG. 15B and the case of FIG. 15C overlap as compared to FIG. In this case, the non-audible sound generation unit 441 performs a specific operation that satisfies “D 1 = func 1 (E 1 ,..., E n ),..., D n = func n (E 1 ,..., E n )”. a plurality of amplitude D 1, ..., D n, and the specific plurality of amplitude D 1, ..., D n specific plurality of frequencies a 1 in the non-audible range corresponding to each, ..., calculating the a n.

(非可聴音生成方法、その6:時間上のゆらぎ)
次に、時間上のゆらぎに基づいて非可聴音を生成する方法について、図16を参照しながら説明する。パラメータ読出部430より入力した例えばパラメータ名「FM−f−012998」のパラメータが例えば「D=func(t)、…、D=func(t)を満足させる特定の複数の振幅D、…、D、および当該特定の複数の振幅D、…、Dに対応する非可聴領域における特定の周波数A、ただし、t、…、tは出力部450が出力信号を被験者に出力してから経過した時間、funcは所定の関数」との旨を表しているとする。この場合に、非可聴音生成部441は、まず、「D=func(t)、…、D=func(t)」を満足させる特定の複数の振幅D、…、D、および当該特定の複数の振幅D、…、Dに対応する非可聴領域における特定の周波数Aを計算する。そして、非可聴音生成部441は、当該計算の結果である特定の複数の振幅D、…、Dを有し、且つ当該特定の複数の振幅D、…、Dに対応する非可聴領域における特定の周波数Aの周波数成分を有する非可聴音X(t)を生成する。図16(a)は、時間t、…、tでの振幅D、…、D、複数の振幅D、…、Dに対応する非可聴領域における特定の周波数Aを示している。なお、非可聴音生成部441は、経過時間tに関する情報を出力部450よりフィードバックして入力する。
(Non-audible sound generation method, Part 6: Time fluctuation)
Next, a method for generating a non-audible sound based on temporal fluctuation will be described with reference to FIG. For example, a parameter having a parameter name “FM-f-012998” input from the parameter reading unit 430 satisfies a specific plurality of amplitudes D satisfying, for example, “D 1 = func (t 1 ),..., D n = func (t n )” 1, ..., D n, and the specific plurality of amplitude D 1, ..., a specific frequency a 1 in the inaudible region corresponding to D n, however, t 1, ..., t n is the output section 450 output signal It is assumed that “func is a predetermined function”, the time that has elapsed since the output to the subject. In this case, the non-audible sound generation unit 441 firstly has a plurality of specific amplitudes D 1 ,..., D n that satisfy “D 1 = func (t 1 ),..., D n = func (t n )”. , And a specific frequency A 1 in the non-audible region corresponding to the specific plurality of amplitudes D 1 ,..., D n . Then, the non-audible sound generating unit 441, a plurality of amplitude D 1 specific is the result of the calculation, ... has a D n, and the specific plurality of amplitude D 1, ..., a non-corresponding to D n generating a non-audible sound X (t) having a specific frequency component of the frequency a 1 in the audible region. FIG. 16 (a), the time t 1, ..., amplitude D 1 of the at t n, ..., D n, a plurality of amplitude D 1, ..., indicate the specific frequency A 1 in the inaudible region corresponding to D n ing. Note that the non-audible sound generation unit 441 inputs information related to the elapsed time t by feeding it back from the output unit 450.

以下では、時間上のゆらぎに基づいて非可聴音を生成する他のバリエーションについて、図16(b)および図16(c)を参照しながら更に説明する。ただし、経過時間tによって変動する非可聴領域での周波数および振幅を計算してから非可聴音X(t)を生成することについては共通するため、図16(a)の例と比べて異なる点についてのみ説明する。   In the following, another variation for generating a non-audible sound based on temporal fluctuation will be further described with reference to FIGS. 16 (b) and 16 (c). However, since it is common to generate the non-audible sound X (t) after calculating the frequency and amplitude in the non-audible region that varies with the elapsed time t, it differs from the example of FIG. Only will be described.

図16(b)は、図16(a)に比べると、経過時間tによって変動するのが振幅ではなく周波数である場合を示す。この場合に、非可聴音生成部441は、「A=func(t)、…、A=func(t)」を満足させる特定の複数の周波数A、…、A、および当該特定の複数の周波数A、…、Aに対応する特定の振幅Dを計算する。 FIG. 16B shows a case where it is not the amplitude but the frequency that changes with the elapsed time t, as compared with FIG. In this case, the non-audible sound generation unit 441 includes a plurality of specific frequencies A 1 ,..., A n that satisfy “A 1 = func (t 1 ),..., A n = func (t n )”, and the specific plurality of frequencies a 1, ..., calculates the particular amplitude D corresponding to a n.

図16(c)は、図16(a)の場合と図16(b)の場合とが重なった場合を示す。この場合に、非可聴音生成部441は、「D=funcD(t)、…、D=funcD(t)」を満足させる特定の複数の振幅D、…、D、および「A=funcA(t)、…、A=funcA(t)」を満足させる特定の複数の周波数A、…、Aを計算する。なお、funcDおよびfuncAは所定の関数である。 FIG. 16C shows a case where the case of FIG. 16A and the case of FIG. 16B overlap. In this case, the non-audible sound generation unit 441 includes a plurality of specific amplitudes D 1 ,..., D n that satisfy “D 1 = funcD (t 1 ),..., D n = funcD (t n )”, and "a 1 = funcA (t 1) , ..., a n = funcA (t n) " frequency a 1 more particular to satisfy, ..., calculating the a n. Note that funcD and funcA are predetermined functions.

以上、非可聴音生成部441が非可聴音X(t)を生成する様々な方法について説明した。非可聴音生成部441は、上記の方法により生成した非可聴音X(t)を非可聴音付加部442に出力する。   Heretofore, various methods for generating the non-audible sound X (t) by the non-audible sound generation unit 441 have been described. The non-audible sound generating unit 441 outputs the non-audible sound X (t) generated by the above method to the non-audible sound adding unit 442.

(非可聴音付加部442)
引き続き、図5を参照しながら、非可聴音付加部442について説明する。非可聴音付加部442は、音源入力装置30より入力した音源信号に、非可聴音生成部441から入力した非可聴音X(t)を付加することにより、出力信号Y(t)を生成するものである。非可聴音付加部442は、当該生成した出力信号Y(t)を出力部450に出力する。以下、非可聴音付加部442の動作について詳細に説明する。
(Non-audible sound adding unit 442)
Next, the non-audible sound adding unit 442 will be described with reference to FIG. The non-audible sound adding unit 442 generates the output signal Y (t) by adding the non-audible sound X (t) input from the non-audible sound generating unit 441 to the sound source signal input from the sound source input device 30. Is. The non-audible sound adding unit 442 outputs the generated output signal Y (t) to the output unit 450. Hereinafter, the operation of the non-audible sound adding unit 442 will be described in detail.

(非可聴音付加部442の動作、その1)
上述した「非可聴音生成方法、その1」により非可聴音生成部441が非可聴音X(t)を生成した場合に、非可聴音付加部442は、下記数式(2)
Y(t)=X(t)s(t)…(2)
により、出力信号Y(t)を生成する。数式(2)において、s(t)は音源入力装置30より入力された音源信号をオーバサンプリングした信号(以下、「オーバサンプリング信号」という。)を表す。非可聴音付加部442は、このように生成した出力信号Y(t)を出力部450に出力する。
(Operation of non-audible sound adding unit 442, part 1)
When the non-audible sound generation unit 441 generates the non-audible sound X (t) by the above-described “non-audible sound generation method, 1”, the non-audible sound addition unit 442 uses the following formula (2).
Y (t) = X (t) s (t) (2)
Thus, an output signal Y (t) is generated. In Equation (2), s (t) represents a signal obtained by oversampling the sound source signal input from the sound source input device 30 (hereinafter referred to as “oversampling signal”). The non-audible sound adding unit 442 outputs the output signal Y (t) thus generated to the output unit 450.

なお、上記動作を行うために、非可聴音付加部442は例えばオーバサンプリング部(図示せず)を更に備えていても良い。オーバサンプリング部は、非可聴音生成部441が生成した非可聴音X(t)のうち高周波成分における周波数の少なくとも2倍以上の周波数で、音源入力装置30からの音源信号をオーバサンプリングする。   In order to perform the above operation, the non-audible sound adding unit 442 may further include, for example, an oversampling unit (not shown). The oversampling unit oversamples the sound source signal from the sound source input device 30 at a frequency that is at least twice the frequency of the high frequency component of the non-audible sound X (t) generated by the non-audible sound generation unit 441.

(非可聴音付加部442の動作、その2)
上述した「非可聴音生成方法、その2」〜「非可聴音生成方法、その6」により非可聴音生成部441が非可聴音X(t)を生成した場合に、非可聴音付加部442は、後述する「加算方法」または「逆フーリエ変換方法」により、出力信号Y(t)を生成する。
(Operation of non-audible sound adding unit 442, part 2)
When the non-audible sound generation unit 441 generates the non-audible sound X (t) by the above-described “non-audible sound generation method, part 2” to “non-audible sound generation method, part 6”, the non-audible sound addition unit 442 Generates an output signal Y (t) by an “addition method” or “inverse Fourier transform method” described later.

加算方法は、下記数式(4)または数式(5)
Y(t)=A(t)+s(t)…(4)
Y(t)=A(t)+B(t)…(5)
により、出力信号Y(t)を生成する方法である。ただし、上記数式(4)および数式(5)において、A(t)は、上述した図6〜図16の何れかの周波数スペクトルにおける非可聴領域のみを逆フーリエ変換して得られた非可聴音である。なお、A(t)が、図6〜図16の何れかの周波数スペクトルにおける全周波数領域を逆フーリエ変換して得られた信号から、ハイパスフィルターやローパスフィルターを用いて非可聴音だけを取り出して得た非可聴音であってもよい。この非可聴音A(t)は、フィルタリングにより、可聴音を除去する方法で得られるものである。また、s(t)は上記のオーバサンプリング信号である。また、B(t)は、s(t)の可聴領域における周波数成分(20Hz超過および15kHz未満)である。
The addition method is the following formula (4) or formula (5).
Y (t) = A (t) + s (t) (4)
Y (t) = A (t) + B (t) (5)
Thus, the output signal Y (t) is generated. However, in the above formulas (4) and (5), A (t) is a non-audible sound obtained by performing an inverse Fourier transform on only the non-audible region in any one of the frequency spectra of FIGS. It is. It should be noted that A (t) extracts only inaudible sound from the signal obtained by performing inverse Fourier transform on the entire frequency region in any one of the frequency spectra of FIGS. 6 to 16 using a high-pass filter or a low-pass filter. The obtained non-audible sound may be used. This non-audible sound A (t) is obtained by a method of removing an audible sound by filtering. Further, s (t) is the above oversampling signal. B (t) is a frequency component (exceeding 20 Hz and less than 15 kHz) in the audible region of s (t).

逆フーリエ変換方法は、上述した図6〜図16の何れかの周波数スペクトルにおける全周波数領域を逆フーリエ変換して例えばY(Δt)を得ると、これらY(Δt)をつなぎあわせることにより、出力信号Y(t)を得る方法である。この逆フーリエ変換方法においては、全周波数帯域を逆フーリエ変換するので、上記の加算方法における非可聴音A(t)の生成を経由せずに、一度に出力信号Y(t)を得ることができる。   In the inverse Fourier transform method, for example, Y (Δt) is obtained by performing inverse Fourier transform on the entire frequency region in any of the frequency spectrums of FIGS. 6 to 16 described above, and the output is obtained by connecting these Y (Δt). This is a method for obtaining the signal Y (t). In this inverse Fourier transform method, the entire frequency band is subjected to inverse Fourier transform, so that the output signal Y (t) can be obtained at one time without going through the generation of the non-audible sound A (t) in the above addition method. it can.

以上、非可聴音制御部440の各構成要素について説明した。図17は、非可聴音制御部440における各信号をイメージした図である。図17(a)は、非可聴音制御部440が音源入力装置30より入力した音源信号をイメージしている。図17(b)は、非可聴音生成部441が生成した非可聴音X(t)をイメージしている。図17(c)は、非可聴音付加部442が生成した出力信号Y(t)をイメージしている。図17に示されるように、出力信号Y(t)の周波数成分は、音源信号の周波数成分とは関係がなく、付加される非可聴音X(t)の周波数成分に依存して変化するものである。   Heretofore, each component of the non-audible sound control unit 440 has been described. FIG. 17 is a diagram illustrating each signal in the non-audible sound control unit 440. FIG. 17A illustrates the sound source signal input from the sound source input device 30 by the non-audible sound control unit 440. FIG. 17B illustrates the inaudible sound X (t) generated by the inaudible sound generation unit 441. FIG. 17C illustrates the output signal Y (t) generated by the non-audible sound adding unit 442. As shown in FIG. 17, the frequency component of the output signal Y (t) has no relation to the frequency component of the sound source signal, and changes depending on the frequency component of the non-audible sound X (t) to be added. It is.

(出力部450)
図1に戻り、出力部450は、非可聴音制御部440により入力した出力信号Y(t)を被験者に音響として提供するものである。出力部450は、出力信号Y(t)の出力をスタートした後に経過した時間tを表す情報を非可聴音制御部440にフィードバックする。
(Output unit 450)
Returning to FIG. 1, the output unit 450 provides the subject with the output signal Y (t) input by the non-audible sound control unit 440 as sound. The output unit 450 feeds back to the non-audible sound control unit 440 information indicating the time t that has elapsed since the output of the output signal Y (t) was started.

出力信号Y(t)の出力時に、出力部450は、出力信号Y(t)の周波数成分のうちで非可聴領域における周波数成分を所定倍数増幅してから、当該出力信号Y(t)を被験者に出力する。具体的に、出力部450は、まず、非可聴音制御部440により入力した出力信号Y(t)を可聴領域における周波数成分(20Hz超過および15kHz未満)L(t)と、非可聴領域における周波数成分(20Hz以下、または15kHz以上)H(t)とに区分する。次に、出力部450は、L(t)+eH(t)、またはs(t)+gH(t)を出力信号Y(t)として被験者に出力する。ここで、eやgは所定倍数を表し、s(t)は上記のオーバサンプリング信号である。   When outputting the output signal Y (t), the output unit 450 amplifies the frequency component in the non-audible region among the frequency components of the output signal Y (t) by a predetermined multiple, and then outputs the output signal Y (t) to the subject. Output to. Specifically, the output unit 450 first outputs the output signal Y (t) input by the non-audible sound control unit 440 to the frequency component (over 20 Hz and less than 15 kHz) L (t) in the audible region and the frequency in the non-audible region. It is divided into components (20 Hz or less, or 15 kHz or more) H (t). Next, the output unit 450 outputs L (t) + eH (t) or s (t) + gH (t) as an output signal Y (t) to the subject. Here, e and g represent a predetermined multiple, and s (t) is the above oversampling signal.

なお、出力信号Y(t)の周波数成分のうちで非可聴領域における周波数成分を所定倍数増幅してから当該出力信号Y(t)を被験者に出力する方法は、周波数を分離する装置(チャンネルデバイダー等)により非可聴領域を分離し、増幅装置(アンプ等)により非可聴領域の出力のみを増幅させる方法を採用しても良い。   A method of amplifying the frequency component in the non-audible region among the frequency components of the output signal Y (t) by a predetermined multiple and then outputting the output signal Y (t) to the subject is a device for separating frequencies (channel divider). Or the like), and a method of amplifying only the output of the non-audible area by an amplifier (amplifier or the like) may be employed.

また、出力部450は、所定の曝露頻度、曝露時間、または曝露時刻(曝露時間帯)にあわせて、出力信号Y(t)を被験者に出力する。ここで、「所定の曝露頻度」とは、例えば、「1日に2回」、「2日間で合計5回以下」、「5日間で合計6回以上10回以下」等をいう。また、「所定の曝露時間」とは、例えば、「1回につき3分」、「1回につき3分以上」、「1回につき3分以上10分以下」、「3回で10分」、「3回で10分以上」、「3回で10分以上20分以下」、「2日間で10分」、「2日間で10分以上」、「2日間で10分以上20分以下」等をいう。また、「所定の曝露時刻(曝露時間帯)」とは、例えば、「一つのまとまった時間帯である、例えば14時50分〜15時20分」、
「複数の時間帯である、例えば10時20分〜10時30分、14時50分〜15時00分、18時00分〜18時10分」等をいう。
The output unit 450 outputs an output signal Y (t) to the subject in accordance with a predetermined exposure frequency, exposure time, or exposure time (exposure time zone). Here, the “predetermined exposure frequency” refers to, for example, “twice a day”, “total of 5 times or less in 2 days”, “total of 6 to 10 times in 5 days”, and the like. The “predetermined exposure time” is, for example, “3 minutes at a time”, “3 minutes or more at a time”, “3 minutes to 10 minutes at a time”, “10 minutes at 3 times”, “3 times 10 minutes or more”, “3 times 10 minutes or more and 20 minutes or less”, “2 days 10 minutes”, “2 days 10 minutes or more”, “2 days 10 minutes or more 20 minutes or less”, etc. Say. Further, the “predetermined exposure time (exposure time zone)” is, for example, “a single time zone, for example, 14:50 to 15:20”,
“A plurality of time zones, for example, 10:20 to 10:30, 14:50 to 15:00, 18:00 to 18:10”, and the like.

(実施例)
以下では、図4に示したようなパラメータ(例えば「FM−f−012999」など)に基づいて上述した方法により生成した出力信号を用いて、被験者の心身状態を実際に変化させた実施例について説明する。本実施例では、同一の音源信号から高周波成分の強度を変えたものを出力信号として7名の被験者に呈示した後に、それぞれの被験者の脳波を測定した。そして当該脳波におけるアルファ波の比率を測ることにより、被験者の心身状態が「イライラする(緊張状態)」から「さわやかな気分(リラックス状態)」に変化されることを確認した。なお、下記の参考文献1や2にも記載されているように、アルファ波はリラックス時に出現するものである。言い換えれば、緊張状態にはアルファ波の出現率(強度)が低下し、リラックス状態にはアルファ波の出現率(強度)が増大される。また、本実施例では、実験の便宜上、可聴域を0〜22kHzとし、非可聴域を22kHz〜96kHzとした。以下、本実施例における具体的な条件等について詳細に説明する。
<参考文献1> ジョン・ピネル(著)、佐藤敬、泉井亮、若林孝一、飛鳥井望(訳)、ピネル バイオサイコロジー―脳、心と行動の神経科学、西村書店、2005
<参考文献2> 井上令一、赤沢滋(著)、臨床脳波:判読の手びき、南山堂、1986
(Example)
In the following, with respect to an embodiment in which the psychosomatic state of the subject is actually changed using the output signal generated by the above-described method based on the parameters as shown in FIG. 4 (for example, “FM-f-012999” or the like). explain. In the present example, the same sound source signal in which the intensity of the high frequency component was changed was presented as output signals to seven subjects, and then the brain waves of each subject were measured. Then, by measuring the ratio of the alpha wave in the electroencephalogram, it was confirmed that the subject's psychosomatic state was changed from “Irritation (Tension)” to “Refreshing (Relax)”. As described in Reference Documents 1 and 2 below, alpha waves appear when relaxing. In other words, the appearance rate (intensity) of alpha waves decreases in a tension state, and the appearance rate (intensity) of alpha waves increases in a relaxed state. In this example, for the convenience of the experiment, the audible range was set to 0 to 22 kHz, and the non-audible range was set to 22 kHz to 96 kHz. Hereinafter, specific conditions and the like in the present embodiment will be described in detail.
<Reference 1> John Pinel (Author), Takashi Sato, Ryo Izumi, Koichi Wakabayashi, Nozomi Asukai (Translation), Pinel Biopsychology-Neuroscience of the Brain, Mind and Behavior, Nishimura Shoten, 2005
<Reference 2> Rei Inoue, Shigeru Akazawa (Author), Clinical EEG: Interpretation of Reading, Minamiyamado, 1986

被験者へ呈示した刺激としては、オーケストラの音楽(「シンフォニックパラダイス」、呈示期間:120s)を以下の3条件(条件1〜3)で、1条件につき4回ずつ、呈示した。なお、可聴域については3条件で同一であり、その音圧レベルは80〜90dB(A)程度になるよう調整してある。一方、以下での22kHz以上の周波数成分が占める割合とは、パワースペクトルの0〜96kHz上で22kHz〜96kHzの周波数成分が占める割合をさす。
(1)条件1
非可聴音なしの条件:元の刺激(オーケストラの音楽)から22kHz以上の周波数成分を除外し、CDやテレビの音に相当する音として被験者に呈示した。
(2)条件2
非可聴音中の条件:22kHz以上の周波数成分が占める割合が0.03%となるように元の刺激(オーケストラの音楽)を調整した後に、被験者に呈示した。なお、この調整は、機材の特性、および可聴域と非可聴域のバランスを考慮して適宜行うものである。
(3)条件3
非可聴音大の条件:22kHz以上の周波数成分が占める割合が0.76%となるように元の刺激(オーケストラの音楽)を増幅した後に、被験者に呈示した。なお、この増幅により、上記条件2に比べ、非可聴音の強度が約25倍大きくなる(振幅では約4〜5倍)。
As stimuli presented to the subjects, orchestra music (“Symphonic Paradise”, presentation period: 120 s) was presented four times per condition under the following three conditions (conditions 1 to 3). The audible range is the same under three conditions, and the sound pressure level is adjusted to be about 80 to 90 dB (A). On the other hand, the ratio occupied by frequency components of 22 kHz or higher in the following refers to the ratio occupied by frequency components of 22 kHz to 96 kHz on 0 to 96 kHz of the power spectrum.
(1) Condition 1
Conditions without inaudible sound: Frequency components of 22 kHz or higher were excluded from the original stimulus (orchestra music) and presented to the subject as sound equivalent to CD or television sound.
(2) Condition 2
Condition in non-audible sound: The original stimulus (orchestra music) was adjusted so that the ratio of frequency components of 22 kHz or higher was 0.03%, and then presented to the subject. This adjustment is appropriately performed in consideration of the characteristics of the equipment and the balance between the audible range and the non-audible range.
(3) Condition 3
Non-audible sound level condition: The original stimulus (orchestra music) was amplified so that the ratio of frequency components of 22 kHz or higher was 0.76%, and then presented to the subject. This amplification increases the intensity of the non-audible sound by about 25 times compared to the above condition 2 (amplitude is about 4 to 5 times).

図18は、本実施例において被験者へ呈示した刺激(曲)を示す図である。図18において、グラフG1は条件1の非可聴音なしの条件における呈示刺激のパワースペクトルを示し、グラフG2は条件2の非可聴音中の条件における呈示刺激のパワースペクトルを示し、グラフG3は条件3の非可聴音大の条件における呈示刺激のパワースペクトルを示し、グラフG4は比較のための暗騒音のパワースペクトルを示す。なお、ここでのdBとは音源の録音時に録音できる最大値を0dBとしたときの相対値である。ちなみに録音時の条件は各刺激揃えてある。   FIG. 18 is a diagram showing the stimulus (music) presented to the subject in this example. In FIG. 18, a graph G1 shows the power spectrum of the presented stimulus in the condition 1 with no non-audible sound, a graph G2 shows the power spectrum of the presented stimulus in the condition in the condition 2 non-audible sound, and a graph G3 shows the condition. The power spectrum of the presentation stimulus in the condition of 3 non-audible sound volume is shown, and the graph G4 shows the power spectrum of the background noise for comparison. Here, dB is a relative value when the maximum value that can be recorded during recording of the sound source is 0 dB. By the way, the recording conditions are the same for each stimulus.

以上の条件下で7名の被験者に刺激(曲)を呈示し、各被験者の脳波を解析した。その解析区間としては、被験者に呈示した曲の後半(60〜120s)を解析の対象とした。これは、非可聴音による影響には時間差があるとの報告によるものである(下記の参考文献3を参照)。また、脳波については、8〜30Hzに占めるアルファ波(8〜13Hz)の比率に注目し、被験者ごとの平均値を各条件で比較した。具体的には非可聴音なしと非可聴音中、非可聴音なしと非可聴音大、非可聴音中と非可聴音大との間で対応のあるt検定を実施し、そこでの確率値がボンフェローニの方法で補正した5%の有意水準(1.67%)以下であれば、有意な差がある、つまり両者に違いがあると判断することとした。
<参考文献3> Oohashi T, Nishina E, Honda M,Yonekura Y, Fuwamoto Y, Kawai N, Maekawa T, Nakamura S, Fukuyama H, ShibasakiH. Inaudible high-frequency sounds affect brain activity: hypersonic effect, JNeurophysiol, 2000 Jun, 83(6), 3548-3558
Under the above conditions, stimulation (music) was presented to seven subjects, and the brain waves of each subject were analyzed. As the analysis section, the latter half (60 to 120 s) of the music presented to the subject was the subject of analysis. This is due to a report that there is a time difference in the effects of non-audible sounds (see Reference 3 below). Regarding the electroencephalogram, the ratio of alpha waves (8 to 13 Hz) occupying 8 to 30 Hz was noted, and the average value for each subject was compared under each condition. Specifically, a t-test with correspondence between non-audible sound and non-audible sound, non-audible sound and non-audible sound volume, non-audible sound and non-audible sound volume is performed, and the probability value there Is less than 5% significance level (1.67%) corrected by Bonferroni's method, it was decided that there was a significant difference, that is, there was a difference between the two.
<Reference 3> Oohashi T, Nishina E, Honda M, Yonekura Y, Fuwamoto Y, Kawai N, Maekawa T, Nakamura S, Fukuyama H, Shibasaki H. Inaudible high-frequency sounds affect brain activity: hypersonic effect, JNeurophysiol, 2000 Jun , 83 (6), 3548-3558

図19は、本実験の結果を示す。図19において、横軸は非可聴音の呈示条件を示し、「なし」とあるのは上記条件1に相当し、「中」とあるのは上記条件2に相当し、「大」とあるのは上記条件3に相当する。また、縦軸は、アルファ波の平均比率を示す。図19において、7名の被験者のアルファ波の平均比率を、条件1については7つの三角(△)で表示し、条件2については7つの丸(○)で表示し、条件3については7つの四角(□)で表示している。ただし、各三角、丸、四角の表示はそれぞれ4回測定分の平均値を示す。   FIG. 19 shows the results of this experiment. In FIG. 19, the horizontal axis indicates the condition for presenting a non-audible sound. “None” corresponds to the above condition 1, “Medium” corresponds to the above condition 2 and “Large”. Corresponds to condition 3 above. The vertical axis indicates the average ratio of alpha waves. In FIG. 19, the average ratio of the alpha waves of seven subjects is displayed with seven triangles (Δ) for condition 1, seven circles (◯) for condition 2, and seven for condition 3. It is displayed with a square (□). However, the display of each triangle, circle, and square shows the average value for four measurements.

本実施例における実験の結果として、図19に示すように、非可聴音中の条件と非可聴音なしの条件との間では、アルファ波の平均比率において有意な差を確認できた。つまり、条件2と条件1を比較する限り、条件2の方が被験者の心身状態を「イライラする(緊張状態)」という現在の心身状態から「さわやかな気分(リラックス状態)」という目標心身状態にうまく変化させることができたことが言える。或いは、非可聴音なしの条件では被験者の心身状態の変化が起こらないことを仮定すると、非可聴音中の条件2では被験者の心身状態を「イライラする(緊張状態)」という現在の心身状態から「さわやかな気分(リラックス状態)」という目標心身状態に変化させることができたことが言える。   As a result of the experiment in this example, as shown in FIG. 19, a significant difference in the average ratio of alpha waves was confirmed between the condition during non-audible sound and the condition without non-audible sound. That is, as long as Condition 2 and Condition 1 are compared, Condition 2 changes the subject's mind-body state from the current mind-body state of “Irritation (Tension)” to the target mind-body state of “Refreshing (Relaxed)” It can be said that it was able to change it well. Alternatively, assuming that the subject's psychosomatic state does not change under the condition where there is no non-audible sound, the psychosomatic state of the subject is “irritated (tensioned)” under the condition 2 during the non-audible sound. It can be said that it was possible to change to the target mental and physical state of "refreshing feeling (relaxed state)".

また、本実施例における実験の結果として、図19に示すように、非可聴音大の条件と非可聴音なしの条件との間では、有意な差を確認できなかった。なお、図19においては、有意な差が無いことを「n.s.」で表示している。すなわち、このことからは、非可聴音を単に付与するだけで被験者の心身状態が変化される訳ではなく、被験者の現在の心身状態がどのような状態であり、且つ目標とする心身状態がどのような状態かによって、適切なパラメータを用いるべきであることが分かる。例えば、本実施例の結果で分かるように、「イライラする(緊張状態)」という現在の心身状態から「さわやかな気分(リラックス状態)」という目標心身状態に変化させる場合には、本実施例における条件2のように、22kHz以上の周波数成分が占める割合が0.03%となるように非可聴音の強度を調整することが望ましい。   Further, as a result of the experiment in this example, as shown in FIG. 19, a significant difference could not be confirmed between the condition of non-audible sound level and the condition of no non-audible sound. In FIG. 19, “ns” indicates that there is no significant difference. In other words, from this, simply applying a non-audible sound does not change the subject's mind-body state, but what is the subject's current mind-body state and what is the target mind-body state It can be seen that appropriate parameters should be used depending on the situation. For example, as can be seen from the results of this embodiment, when changing from the current mind-body state of “Irritation (Tension)” to the target mind-body state of “Refreshing (Relaxed)”, As in condition 2, it is desirable to adjust the intensity of the non-audible sound so that the ratio of frequency components of 22 kHz or higher is 0.03%.

(心身状態変化システム1の作用及び効果)
続いて、本実施形態にかかる心身状態変化システム1の作用及び効果について説明する。本実施形態の心身状態変化システム1によれば、被験者に提供する出力信号Y(t)は、任意の音源信号に非可聴音X(t)が付加されて成るものである。つまり、出力信号Y(t)の周波数成分は、音源信号の周波数成分とは関係がなく、付加される非可聴音X(t)の周波数成分に依存して変化するものである。したがって、本実施形態によれば、音源信号の周波数成分に依存しない周波数成分を有する出力信号Y(t)を出力することが可能となる。更に、出力信号Y(t)が音源信号に依存しないことから、パラメータ格納部410は例えば被験者の心身状態毎に異なる音源信号をいちいち蓄積する必要がなくなる。このため、パラメータ格納部410を構成するために必要な記憶容量が大きくなることを防止することができる。
(Operation and effect of the psychosomatic state change system 1)
Then, the effect | action and effect of the mind-and-body state change system 1 concerning this embodiment are demonstrated. According to the psychosomatic state change system 1 of the present embodiment, the output signal Y (t) provided to the subject is obtained by adding a non-audible sound X (t) to an arbitrary sound source signal. That is, the frequency component of the output signal Y (t) has no relation to the frequency component of the sound source signal, and changes depending on the frequency component of the non-audible sound X (t) to be added. Therefore, according to the present embodiment, it is possible to output the output signal Y (t) having a frequency component that does not depend on the frequency component of the sound source signal. Further, since the output signal Y (t) does not depend on the sound source signal, the parameter storage unit 410 does not need to accumulate different sound source signals for each subject's mind and body condition, for example. For this reason, it is possible to prevent the storage capacity necessary for configuring the parameter storage unit 410 from increasing.

また、非可聴音X(t)はパラメータ格納部410に格納されたパラメータに基づいて生成されるものである。このパラメータは被験者の複数の心身状態間の相関関係を表すものであるため、パラメータ読出部430が被験者の現在の心身状態と目標心身状態との間の相関関係に対応するパラメータを適切に選択して非可聴音制御部440に出力することにより、非可聴音制御部440は被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音X(t)を生成することができる。そして、この非可聴音X(t)を音源信号とあわせて被験者に提供することにより、被験者の現在の心身状態を目標心身状態に変化させるための適切なリラクゼーション・セラピィを被験者に提供することができる。なお、被験者に提供した出力信号を用いて実際に被験者の心身状態を変化させた例については、上記の(実施例)で述べた通りである。   Further, the non-audible sound X (t) is generated based on the parameters stored in the parameter storage unit 410. Since this parameter represents a correlation between a plurality of psychosomatic states of the subject, the parameter reading unit 430 appropriately selects a parameter corresponding to the correlation between the current psychosomatic state of the subject and the target psychosomatic state. By outputting to the non-audible sound control unit 440, the non-audible sound control unit 440 can generate an appropriate non-audible sound X (t) for changing the current mind-body state of the subject to the target mind-body state. . Then, by providing the subject with the inaudible sound X (t) together with the sound source signal, providing the subject with an appropriate relaxation therapy for changing the subject's current mind-body state to the target mind-body state. it can. An example of actually changing the subject's mind and body state using the output signal provided to the subject is as described in the above (Example).

また、本実施形態においては、非可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つのパラメータを用いることより、非可聴音制御部440は被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音X(t)を生成することができる。   In this embodiment, the non-audible sound control unit 440 uses the current mind and body of the subject by using at least one parameter among the frequency in the non-audible region, the amplitude at the frequency, and the phase at the frequency. An appropriate non-audible sound X (t) for changing the state to the target psychosomatic state can be generated.

また、本実施形態においては、非可聴音制御部440は、非可聴領域における周波数、該周波数での振幅、および該周波数での位相を上記の式(1)〜式(3)におけるパラメータとして用いることにより、被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音X(t)および出力信号Y(t)を生成することができる。   In the present embodiment, the non-audible sound control unit 440 uses the frequency in the non-audible region, the amplitude at the frequency, and the phase at the frequency as parameters in the above formulas (1) to (3). Thus, it is possible to generate an appropriate non-audible sound X (t) and an output signal Y (t) for changing the current psychosomatic state of the subject to the target psychosomatic state.

また、本実施形態においては、可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つのパラメータを更に用いることより、非可聴音制御部440は被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音X(t)を生成することができる。非可聴音X(t)の生成時に可聴音に関連するパラメータを用いることにより、非可聴音制御部440は周波数上のゆらぎを反映して非可聴音X(t)を生成することができる。   In the present embodiment, the non-audible sound control unit 440 further uses at least one parameter among the frequency in the audible region, the amplitude at the frequency, and the phase at the frequency, so that the non-audible sound control unit 440 performs the current mind and body of the subject. An appropriate non-audible sound X (t) for changing the state to the target psychosomatic state can be generated. By using parameters related to the audible sound when generating the non-audible sound X (t), the non-audible sound control unit 440 can generate the non-audible sound X (t) reflecting the fluctuation in frequency.

また、本実施形態においては、出力部450が出力信号Y(t)を被験者に出力してから経過した時間tを更なるパラメータとして用いることにより、非可聴音制御部440は被験者の現在の心身状態を目標心身状態に変化させるための適切な非可聴音X(t)を生成することができる。非可聴音X(t)の生成時に既に出力した出力信号Y(t)に関連するパラメータを用いることにより、非可聴音制御部440は時間上のゆらぎを反映して非可聴音X(t)を生成することができる。   Moreover, in this embodiment, the non-audible sound control unit 440 uses the current mind and body of the subject by using the time t that has elapsed since the output unit 450 outputs the output signal Y (t) to the subject. An appropriate non-audible sound X (t) for changing the state to the target psychosomatic state can be generated. By using a parameter related to the output signal Y (t) that has already been output when the non-audible sound X (t) is generated, the non-audible sound control unit 440 reflects the fluctuation over time and the non-audible sound X (t). Can be generated.

また、本実施形態においては、出力部450は、出力信号Y(t)の周波数成分のうちで非可聴領域における周波数成分を増幅することにより、出力信号Y(t)の全体において非可聴領域における周波数成分の割合を高めることができる。   Further, in the present embodiment, the output unit 450 amplifies the frequency component in the non-audible region among the frequency components of the output signal Y (t), so that the entire output signal Y (t) is in the non-audible region. The ratio of frequency components can be increased.

また、本実施形態においては、出力部450は、所定の曝露頻度、曝露時間、または曝露時刻にあわせて出力信号Y(t)を被験者に出力することにより、被験者の現在の心身状態を目標心身状態に変化させるための最適な出力信号Y(t)を被験者に提供することができる。   Further, in the present embodiment, the output unit 450 outputs the output signal Y (t) to the subject in accordance with a predetermined exposure frequency, exposure time, or exposure time, so that the current mind-body state of the subject is the target mind-body. An optimal output signal Y (t) for changing to a state can be provided to the subject.

心身状態変化システム1の構成概要図である。1 is a schematic configuration diagram of a mind-body state change system 1. FIG. 心身状態計測装置10が被験者の現在の心身状態を計測する際に用いる指標の一例と、当該指標の計測方法の一例とを示す図である。It is a figure which shows an example of the parameter | index used when the psychosomatic state measurement apparatus 10 measures the test subject's present mind-body state, and an example of the measuring method of the said parameter | index. 音響再生装置40のハードウェア構成図である。2 is a hardware configuration diagram of a sound reproduction device 40. FIG. パラメータ格納部410が格納する心身状態特定情報およびパラメータの一例をイメージしている。An example of psychosomatic state specifying information and parameters stored in the parameter storage unit 410 is imagined. 非可聴音制御部440の機能的な構成を示す機能構成図である。3 is a functional configuration diagram illustrating a functional configuration of a non-audible sound control unit 440. FIG. 非可聴音生成部441が非可聴領域における周波数のみに基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method in which the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based only on the frequency in a non-audible area | region. 非可聴音生成部441が振幅に基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on an amplitude. 非可聴音生成部441が位相に基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method in which the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on a phase. 非可聴音生成部441が位相に基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method in which the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on a phase. 非可聴音生成部441が周波数上のゆらぎに基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on the fluctuation | variation on a frequency. 非可聴音生成部441が周波数上のゆらぎに基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on the fluctuation | variation on a frequency. 非可聴音生成部441が周波数上のゆらぎに基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on the fluctuation | variation on a frequency. 非可聴音生成部441が周波数上のゆらぎに基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on the fluctuation | variation on a frequency. 非可聴音生成部441が周波数上のゆらぎに基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on the fluctuation | variation on a frequency. 非可聴音生成部441が周波数上のゆらぎに基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on the fluctuation | variation on a frequency. 非可聴音生成部441が時間上のゆらぎに基づいて非可聴音X(t)を生成する方法を説明するための図である。It is a figure for demonstrating the method the non-audible sound production | generation part 441 produces | generates the non-audible sound X (t) based on the fluctuation over time. 非可聴音制御部440における各信号をイメージした図である。It is the figure which imaged each signal in the non-audible sound control part 440. FIG. 実施例において被験者へ呈示した刺激(曲)を示す図である。It is a figure which shows the irritation | stimulation (music) presented to the test subject in the Example. 実施例における実験の結果を示す図である。It is a figure which shows the result of the experiment in an Example.

符号の説明Explanation of symbols

1…心身状態変化システム、10…心身状態計測装置、20…外部入力装置、30…音源入力装置、40…音響再生装置、410…パラメータ格納部、420…入力部、430…パラメータ読出部、440…非可聴音制御部、441…非可聴音生成部、442…非可聴音付加部、443…乗算部、450…出力部。 DESCRIPTION OF SYMBOLS 1 ... Psychosomatic state change system, 10 ... Psychosomatic state measuring device, 20 ... External input device, 30 ... Sound source input device, 40 ... Sound reproduction device, 410 ... Parameter storage part, 420 ... Input part, 430 ... Parameter reading part, 440 ... non-audible sound control unit, 441 ... non-audible sound generation unit, 442 ... non-audible sound addition unit, 443 ... multiplication unit, 450 ... output unit.

Claims (9)

被験者の心身状態を特定する複数の心身状態特定情報と、前記複数の心身状態特定情報それぞれの相関関係を特定する複数のパラメータと、を予め格納する格納手段と、
前記被験者の現在の心身状態を特定する現在状態特定情報の入力を受け付ける現在状態入力手段と、
前記被験者の前記現在の心身状態を前記被験者の他の心身状態に変化させる際の目標となる目標心身状態を特定する目標状態特定情報の入力を受け付ける目標状態入力手段と、
前記現在状態入力手段が受け付けた現在状態特定情報と前記目標状態入力手段が受け付けた目標状態特定情報との間の相関関係を特定するパラメータを、前記格納手段を参照して読み出すパラメータ読出手段と、
任意の音源信号の入力を受け付ける音源入力手段と、
前記被験者の前記現在の心身状態を前記被験者の前記目標心身状態に変化させるために前記被験者に聴かせる非可聴音を、前記パラメータ読出手段が読み出したパラメータに基づいて生成し、当該生成した非可聴音を前記音源入力手段が受け付けた前記音源信号に付加することにより出力信号を生成する非可聴音付加手段と、
前記非可聴音付加手段が生成した出力信号を前記被験者に出力する出力手段と、
を備えることを特徴とする音響再生装置。
Storage means for preliminarily storing a plurality of psychosomatic state specifying information for specifying a subject's psychosomatic state, and a plurality of parameters for specifying the correlation of each of the plurality of psychosomatic state specifying information;
Current state input means for accepting input of current state specifying information for specifying the current psychosomatic state of the subject;
Target state input means for receiving input of target state specifying information for specifying a target psychosomatic state as a target when changing the current psychosomatic state of the subject to another psychosomatic state of the subject;
A parameter reading unit that reads a parameter for specifying a correlation between the current state specifying information received by the current state input unit and the target state specifying information received by the target state input unit with reference to the storage unit;
Sound source input means for receiving input of an arbitrary sound source signal;
A non-audible sound to be heard by the subject to change the current psychosomatic state of the subject to the target psychosomatic state of the subject is generated based on the parameter read by the parameter reading unit, and the generated non-permitted sound is generated. Non-audible sound adding means for generating an output signal by adding listening sound to the sound source signal received by the sound source input means;
Output means for outputting the output signal generated by the non-audible sound adding means to the subject;
A sound reproducing device comprising:
前記パラメータは、非可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つであることを特徴とする請求項1に記載の音響再生装置。   The sound reproducing device according to claim 1, wherein the parameter is at least one of a frequency in a non-audible region, an amplitude at the frequency, and a phase at the frequency. 前記非可聴音付加手段は、
前記パラメータ読出手段が読み出したパラメータが前記非可聴領域における周波数、該周波数での振幅、および該周波数での位相を指している場合に、下記数式(1)
X(t)=a{1+sin(2πft―θ)}…(1)
により、前記非可聴音X(t)を生成し、
下記数式(2)
Y(t)=X(t)s(t)…(2)
(式中、fは前記周波数を表し、aは該周波数fでの振幅を表し、θは該周波数fでの位相を表し、s(t)は前記音源信号を表し、tは時間を表す。)
により、前記非可聴音X(t)と前記音源信号s(t)とを乗算して前記出力信号Y(t)を生成することを特徴とする請求項2記載の音響再生装置。
The non-audible sound adding means is
When the parameter read by the parameter reading means indicates the frequency in the non-audible region, the amplitude at the frequency, and the phase at the frequency, the following formula (1)
X (t) = a {1 + sin (2πft−θ)} (1)
To generate the inaudible sound X (t),
The following mathematical formula (2)
Y (t) = X (t) s (t) (2)
(Where f represents the frequency, a represents the amplitude at the frequency f, θ represents the phase at the frequency f, s (t) represents the sound source signal, and t represents time. )
The sound reproduction apparatus according to claim 2, wherein the output signal Y (t) is generated by multiplying the non-audible sound X (t) and the sound source signal s (t).
前記非可聴音付加手段は、
前記パラメータ読出手段が読み出したパラメータがn個の複数の周波数、振幅、および位相を指している場合に、下記数式(3)
Figure 2009172371

(式中、fは前記複数の周波数のうちの一つを表し、aは該周波数fでの振幅を表し、θは該周波数fでの位相を表す。)
により、前記非可聴音X(t)を生成することを特徴とする請求項3記載の音響再生装置。
The non-audible sound adding means is
When the parameter read out by the parameter reading means indicates a plurality of n frequencies, amplitudes and phases, the following mathematical formula (3)
Figure 2009172371

(Where f i represents one of the plurality of frequencies, a i represents the amplitude at the frequency f i , and θ i represents the phase at the frequency f i ).
The sound reproduction apparatus according to claim 3, wherein the non-audible sound X (t) is generated by the following.
前記パラメータには、可聴領域における周波数、該周波数での振幅、および該周波数での位相のうち、少なくとも一つが更に含まれることを特徴とする請求項2に記載の音響再生装置。   The sound reproduction device according to claim 2, wherein the parameter further includes at least one of a frequency in an audible region, an amplitude at the frequency, and a phase at the frequency. 前記パラメータには、前記出力手段が前記出力信号を前記被験者に出力してから経過した時間が更に含まれることを特徴とする請求項2に記載の音響再生装置。   The sound reproducing apparatus according to claim 2, wherein the parameter further includes a time elapsed after the output means outputs the output signal to the subject. 前記非可聴音付加手段は、
当該生成した非可聴音と、前記音源入力手段より入力した音源信号とを加算することにより、前記出力信号を生成することを特徴とする請求項5または請求項6に記載の音響再生装置。
The non-audible sound adding means is
The sound reproduction device according to claim 5 or 6, wherein the output signal is generated by adding the generated non-audible sound and a sound source signal input from the sound source input means.
前記出力手段は、前記出力信号の周波数成分のうちで前記非可聴領域における周波数成分を増幅してから、前記出力信号を前記被験者に出力することを特徴とする請求項1〜7の何れか1項に記載の音響再生装置。   The output means outputs the output signal to the subject after amplifying the frequency component in the non-audible region among the frequency components of the output signal. The sound reproducing device according to item. 前記出力手段は、所定の出力頻度、出力時間、または出力時刻に、前記出力信号を前記被験者に出力することを特徴とする請求項1〜8の何れか1項に記載の音響再生装置。   The sound reproduction apparatus according to claim 1, wherein the output unit outputs the output signal to the subject at a predetermined output frequency, output time, or output time.
JP2008334141A 2007-12-28 2008-12-26 Sound playback device Active JP5286075B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008334141A JP5286075B2 (en) 2007-12-28 2008-12-26 Sound playback device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007340727 2007-12-28
JP2007340727 2007-12-28
JP2008334141A JP5286075B2 (en) 2007-12-28 2008-12-26 Sound playback device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013117253A Division JP5580919B2 (en) 2007-12-28 2013-06-03 Sound playback device

Publications (2)

Publication Number Publication Date
JP2009172371A true JP2009172371A (en) 2009-08-06
JP5286075B2 JP5286075B2 (en) 2013-09-11

Family

ID=41028151

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008334141A Active JP5286075B2 (en) 2007-12-28 2008-12-26 Sound playback device
JP2013117253A Active JP5580919B2 (en) 2007-12-28 2013-06-03 Sound playback device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013117253A Active JP5580919B2 (en) 2007-12-28 2013-06-03 Sound playback device

Country Status (1)

Country Link
JP (2) JP5286075B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2805674A1 (en) * 2013-05-23 2014-11-26 Yamaha Corporation Sound generator device and sound generation method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6915913B2 (en) * 2019-03-29 2021-08-04 将軍堂株式会社 Non-audible sound generator
JP2023027416A (en) * 2019-12-04 2023-03-02 株式会社ティーオースウィング Sound processing device, sound processing method, and sound processing program
CN114929319A (en) * 2020-06-22 2022-08-19 华为技术有限公司 Method and device for updating sleep-aid audio signal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003154007A (en) * 2001-11-20 2003-05-27 Matsushita Electric Ind Co Ltd Environment control device
JP2004024879A (en) * 2002-06-26 2004-01-29 Samsung Electronics Co Ltd Apparatus and method for emotion guidance
JP2004344284A (en) * 2003-05-21 2004-12-09 Aisin Seiki Co Ltd Relaxation apparatus, toilet seat device, bed, bathtub and massage chair
JP2005087572A (en) * 2003-09-19 2005-04-07 Matsushita Electric Works Ltd Brain wave guide

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3194187B2 (en) * 1998-02-13 2001-07-30 林原 健 Fmθ guidance device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003154007A (en) * 2001-11-20 2003-05-27 Matsushita Electric Ind Co Ltd Environment control device
JP2004024879A (en) * 2002-06-26 2004-01-29 Samsung Electronics Co Ltd Apparatus and method for emotion guidance
JP2004344284A (en) * 2003-05-21 2004-12-09 Aisin Seiki Co Ltd Relaxation apparatus, toilet seat device, bed, bathtub and massage chair
JP2005087572A (en) * 2003-09-19 2005-04-07 Matsushita Electric Works Ltd Brain wave guide

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2805674A1 (en) * 2013-05-23 2014-11-26 Yamaha Corporation Sound generator device and sound generation method
US9978358B2 (en) 2013-05-23 2018-05-22 Yamaha Corporation Sound generator device and sound generation method

Also Published As

Publication number Publication date
JP5580919B2 (en) 2014-08-27
JP2013215587A (en) 2013-10-24
JP5286075B2 (en) 2013-09-11

Similar Documents

Publication Publication Date Title
Wöstmann et al. Spatiotemporal dynamics of auditory attention synchronize with speech
Wilsch et al. Alpha oscillatory dynamics index temporal expectation benefits in working memory
Lizarazu et al. Phase− amplitude coupling between theta and gamma oscillations adapts to speech rate
Evers et al. The cerebral haemodynamics of music perception: a transcranial Doppler sonography study
Wöstmann et al. The human neural alpha response to speech is a proxy of attentional control
Cogan et al. A mutual information analysis of neural coding of speech by low-frequency MEG phase information
Kerlin et al. Attentional gain control of ongoing cortical speech representations in a “cocktail party”
Mathias et al. Rhythm complexity modulates behavioral and neural dynamics during auditory–motor synchronization
US20120209139A1 (en) Rapid screening, threshold, and diagnostic tests for evaluation of hearing.
Polonenko et al. The parallel auditory brainstem response
Vercammen et al. Electrophysiological and behavioral evidence of reduced binaural temporal processing in the aging and hearing impaired human auditory system
JP5580919B2 (en) Sound playback device
Meha-Bettison et al. Enhanced speech perception in noise and cortical auditory evoked potentials in professional musicians
Nakajima et al. Stress Recovery Effects of High‐and Low‐Frequency Amplified Music on Heart Rate Variability
Prete et al. The sound of silence: Predictive error responses to unexpected sound omission in adults
Andermann et al. Transient and sustained processing of musical consonance in auditory cortex and the effect of musicality
Laugesen et al. On the cost of introducing speech-like properties to a stimulus for auditory steady-state response measurements
He et al. Effects of syllable rate on neuro-behavioral synchronization across modalities: brain oscillations and speech productions
Easwar et al. Characteristics of speech-evoked envelope following responses in infancy
Arbeiter et al. Analysis of the auditory feedback and phonation in normal voices
KR101636949B1 (en) The method and apparatus for treating tinnitus
Cervantes Constantino et al. Dynamic cortical representations of perceptual filling-in for missing acoustic rhythm
Schmidt et al. Neural representation of loudness: cortical evoked potentials in an induced loudness reduction experiment
Manohare et al. Electroencephalography based classification of emotions associated with road traffic noise using Gradient boosting algorithm
Okamoto et al. Encoding of frequency-modulation (FM) rates in human auditory cortex

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130603

R150 Certificate of patent or registration of utility model

Ref document number: 5286075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250