JP2006346471A - Sound generation method, computer readable storage medium, stand-alone sound generation and playback device, and network communicative sound generation and playback system - Google Patents

Sound generation method, computer readable storage medium, stand-alone sound generation and playback device, and network communicative sound generation and playback system Download PDF

Info

Publication number
JP2006346471A
JP2006346471A JP2006189865A JP2006189865A JP2006346471A JP 2006346471 A JP2006346471 A JP 2006346471A JP 2006189865 A JP2006189865 A JP 2006189865A JP 2006189865 A JP2006189865 A JP 2006189865A JP 2006346471 A JP2006346471 A JP 2006346471A
Authority
JP
Japan
Prior art keywords
procedure
sound generation
sound
biological signal
fractal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006189865A
Other languages
Japanese (ja)
Other versions
JP2006346471A5 (en
Inventor
Hidenori Ito
英則 伊藤
Shohei Kato
昇平 加藤
Masaki Mizuno
雅紀 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ito Hidenori
Kato Shohei
Original Assignee
Ito Hidenori
Kato Shohei
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ito Hidenori, Kato Shohei filed Critical Ito Hidenori
Priority to JP2006189865A priority Critical patent/JP2006346471A/en
Publication of JP2006346471A publication Critical patent/JP2006346471A/en
Publication of JP2006346471A5 publication Critical patent/JP2006346471A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound generation method to basic information having chaos and fractal, by calculating characteristics of chaos and fractal from the basic information having chaos and fractal, and by applying a generation rule to the obtained data of chaos and fractal. <P>SOLUTION: This sound generation method includes: a basic information converting process, which converts basic information having chaos and fractal into data that are numerically operable; a chaotic space generating process, which calculates a chaos attractor and a fractal feature on the basis of the data converted by the basic information converting process; a fractal space generating process, which generates a fractal space, and a sound generating process, which generates a sound file in compliance with a predetermined sound generation rule, from the data in the chaotic space and the fractal space generated by the chaotic space generating process and the fractal space generating process. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明の技術分野は、サウンド生成方法にカオス性及び/又はフラクタル性を有する基礎情報を用いることにより、カオス性及び/又はフラクタル性を有し、その特徴を生かした人体に有用なサウンドを生成するサウンド生成方法に関するものである。また、上記サウンド生成方法に基づいたサウンド生成プログラムを記録したコンピュータ読み取り可能な記憶媒体と、その目的に合致したサウンドを生成するスタンドアロン型サウンド生成再生装置及びネットワーク配信型サウンド生成再生システムに関するものである。   The technical field of the present invention generates chaotic and / or fractal sound that is useful for the human body by utilizing the basic information having chaotic and / or fractal characteristics in the sound generation method. It relates to a sound generation method. The present invention also relates to a computer-readable storage medium that records a sound generation program based on the sound generation method, a stand-alone type sound generation / reproduction device and a network distribution type sound generation / reproduction system that generate a sound that matches the purpose. .

従来のサウンド生成方法において、いわゆるヒーリングミュージック等の"癒し"をテーマとした音楽を収録したコンパクトディスクなどは多数存在している。例として、作曲者及び編曲者の意図により脳波のα波が出現しやすい構成としたα波音楽や、自然音をそのまま録音するようなヒーリングサウンド等が知られている。   In the conventional sound generation method, there are many compact discs and the like that record music on the theme of “healing” such as so-called healing music. As examples, there are known α-wave music in which α-waves of brain waves are likely to appear due to the intentions of composers and arrangers, healing sounds that record natural sounds as they are, and the like.

一方、人体の生体信号をカオス理論によって非線形処理を施す非線形処理方法が近年注目されるようになってきた。脈波及び心拍信号に対してそれらがカオスであるという条件を満たしているか否かをもって健康状態の診断を行う技術が開示されている(例えば、下記特許文献1参照)。これは健康な生体から得られる脈波や心拍信号にはカオス性があるとされている知見を利用したものである。あるデータがカオスであるためには、非整数のフラクタル次元をもつこと、最大リアプノフ数が正であることなどの条件が一般によく用いられている。同様に、人の心身状態を客観的に診断する技術としては、カオスアトラクタやリアプノフ指数を用いた技術が開示されている(例えば、下記特許文献2参照。)。   On the other hand, in recent years, a nonlinear processing method for performing nonlinear processing on a biological signal of a human body by chaos theory has been attracting attention. A technique for diagnosing a health condition based on whether or not a pulse wave and a heartbeat signal satisfy a condition that they are chaos has been disclosed (for example, see Patent Document 1 below). This is based on the knowledge that pulse waves and heartbeat signals obtained from a healthy living body are chaotic. In order for some data to be chaotic, conditions such as having a non-integer fractal dimension and a positive maximum Lyapunov number are generally used. Similarly, as a technique for objectively diagnosing a person's mind and body state, a technique using a chaos attractor or a Lyapunov exponent is disclosed (for example, see Patent Document 2 below).

また、人間の心身状態を定量的に評価する方法の一つに、脳波解析が挙げられる。一般にリラックス時にはα波が出ているといわれ、興奮してくるとβ波が出てくるといわれている。人間の精神状態を評価する技術としては、2種類の脳波帯域内の平均パワー値を求め、比を算出することにより人間の精神状態を評価する技術が開示されている(例えば、下記特許文献3参照。)。   One of the methods for quantitatively evaluating the human mind and body condition is electroencephalogram analysis. In general, it is said that α waves are emitted when relaxing, and β waves are emitted when excited. As a technique for evaluating a human mental state, a technique for evaluating a human mental state by obtaining an average power value in two types of electroencephalogram bands and calculating a ratio is disclosed (for example, Patent Document 3 below). reference.).

特開平4−208136号公報(第2−8頁)JP-A-4-208136 (page 2-8) 特開平6−54813号公報(第2−6頁)JP-A-6-54813 (page 2-6) 特開2002−577号公報(第3−5頁、第5図)JP 2002-577 A (page 3-5, FIG. 5)

しかし、従来のサウンド生成方法では、作曲者及び編曲者の意図したサウンド生成をしているため、個人の生体情報のようなカオス性を有する基礎情報を基にしたサウンドを生成することはできなかった。   However, in the conventional sound generation method, since the sound generation intended by the composer and the arranger is generated, it is not possible to generate a sound based on chaotic basic information such as personal biometric information. It was.

本発明の目的は、カオス性及び/又はフラクタル性を有する基礎情報を数値演算可能なデータに変換することにより、カオス性及び/又はフラクタル性を有する基礎情報のカオス及び/又はフラクタル特性を算出し、得られたカオス及び/又はフラクタルデータに生成ルールを適用することにより、カオス性及び/又はフラクタル性を有する基礎情報に対するサウンド生成方法を提供することである。   An object of the present invention is to calculate chaos and / or fractal characteristics of basic information having chaotic properties and / or fractal properties by converting basic information having chaotic properties and / or fractal properties into numerically operable data. The object of the present invention is to provide a sound generation method for basic information having chaos and / or fractal by applying a generation rule to the obtained chaos and / or fractal data.

更に、得られたサウンドに対する評価結果をフィードバックしながら、より安らぎのあるサウンドに作り変えてゆけるサウンド生成方法を提供することである。   It is another object of the present invention to provide a sound generation method capable of making a more comfortable sound while feeding back an evaluation result for the obtained sound.

また、上記方法によるサウンド生成プログラムを記録したコンピュータ読み取り可能な記憶媒体と、情報提供者個人からの生体信号の測定と生成されたサウンドを再生するスタンドアロン型サウンド生成再生装置及びネットワーク配信型サウンド生成再生システムと、を提供することである。   In addition, a computer-readable storage medium in which a sound generation program according to the above method is recorded, a measurement of a biological signal from an individual information provider, and a stand-alone sound generation / reproduction device that reproduces the generated sound, and a network distribution type sound generation / reproduction System.

本発明は、以下の通りである。
1.カオス性を有する基礎情報を数値演算可能なデータに変換する基礎情報変換手順と、該基礎情報変換手順で変換したデータに基づいてカオスアトラクタを算出し、カオス特性空間を生成するカオス特性空間生成手順と、該カオス特性空間生成手順で生成したカオス特性空間にあるデータから所定のサウンド生成ルールに従ってサウンドファイルを生成するサウンド生成手順と、を備えることを特徴とするサウンド生成方法。
2.フラクタル性を有する基礎情報を数値演算可能なデータに変換する基礎情報変換手順と、該基礎情報変換手順で変換したデータに基づいてフラクタル特徴を抽出することによりフラクタル特性空間を生成するフラクタル特性空間生成手順と、該フラクタル特性空間生成手順で生成したフラクタル特性空間から所定のサウンド生成ルールに従ってサウンドファイルを生成するサウンド生成手順と、を備えることを特徴とするサウンド生成方法。
3.情報提供者個人の時系列的な生成信号を数値演算可能なデータに変換する生体信号変換手順と、該生体信号変換手順で変換したデータに基づいてカオスアトラクタを算出し、カオス特性空間を生成するカオス特性空間生成手順と、該カオス特性空間生成手順で生成したカオス特性空間にあるデータから所定のサウンド生成ルールに従って、前記情報提供者に適応したサウンドファイルを生成するサウンド生成手順と、を備えることを特徴とするサウンド生成方法。
4.情報提供者個人の時系列的な生成信号を数値演算可能なデータに変換する生体信号変換手順と、該生体信号変換手順で変換したデータに基づいて自己相似特長を抽出することによりフラクタル特性空間を生成するフラクタル特性空間生成手順と、該フラクタル特性空間生成手順で生成したフラクタル特性空間から所定のサウンド生成ルールに従って、前記情報提供者に適応したサウンドファイルを生成するサウンド生成手順と、を備えることを特徴とするサウンド生成方法。
5.前記生体信号変換手順は、生体信号を測定する生体信号測定手順と、該生体信号測定手順で測定された生体信号データを周波数帯域ごとの数値データとして計算する周波数解析手順と、該周波数解析手順に基づいて前記情報提供者個人の生体における神経種別特性に対応するサウンド生成手順と、を備える上記3.記載のサウンド生成方法。
6.前記生体信号変換手順は、生体信号を測定する生体信号測定手順と、該生体信号測定手順で測定された生体信号データを周波数帯域ごとの数値データとして計算する周波数解析手順と、該周波数解析手順に基づいて前記情報提供者個人の生体における神経種別特性に対応するサウンド生成手順と、を備える上記4.記載のサウンド生成方法。
7.前記カオス特性空間生成手順は、前記周波数解析手順で計算された情報提供者個人の生体における神経種別特性の数値データを比較し、前記情報提供者の心身状態を評価する状態評価手順と、該状態評価手順での評価に応じてカオスアトラクタを切断する平面を変更する切断面変更手順と、を備える上記3.記載のサウンド生成方法。
8.前記フラクタル特性空間生成手順は、前記周波数解析手順で計算された情報提供者個人の生体における神経種別特性の数値データを比較し、前記情報提供者の心身状態を評価する状態評価手順と、該状態評価手順での評価に応じてフラクタル特徴を抽出するためのスケーリング幅を変更するスケーリング幅変更手順と、を備える上記4.記載のサウンド生成方法。
9.前記サウンド生成手順は、前記生体信号の情報提供者と対話できるインターフェースを有し、サウンド生成に関する条件を入力可能とする条件入力手順と、該条件入力手順で入力された条件に従って、前記サウンド生成ルールを設定する生成ルール設定手順と、を含み、該生成ルール設定手順で設定された生成ルールに従って前記サウンドファイルを生成する上記3.記載のサウンド生成方法。
10.前記サウンド生成手順は、前記生体信号の情報提供者と対話できるインターフェースを有し、サウンド生成に関する条件を入力可能とする条件入力手順と、該条件入力手順で入力された条件に従って、前記サウンド生成ルールを設定する生成ルール設定手順と、を含み、該生成ルール設定手順で設定された生成ルールに従って前記サウンドファイルを生成する上記4.記載のサウンド生成方法。
11.前記状態評価手順では、脳波のα波の出現割合によって心身状態を評価する上記7.記載のサウンド生成方法。
12.前記状態評価手順では、脳波のα波の出現割合によって心身状態を評価する上記8.記載のサウンド生成方法。
13.前記生体信号として脈波、心電、脳波、筋電及び呼吸の少なくとも1種を利用する上記3.乃至10.のいずれかに記載のサウンド生成方法。
14.上記1.乃至12.のいずれかに記載のサウンド生成方法のうちの少なくとも1種をコンピュータにより実行させるためのプログラムが記録されたことを特徴とするコンピュータ読み取り可能な記憶媒体。
15.上記13.に記載のサウンド生成方法をコンピュータにより実行させるためのプログラムが記録されたことを特徴とするコンピュータ読み取り可能な記憶媒体。
16.生体信号を測定する手段と、上記1.乃至上記12.のいずれか一項に記載のサウンド生成方法のうちの少なくとも1種を実行するコンピュータと、該サウンド生成方法によって生成されたサウンドを再生する手段と、前記生体信号を提供し前記サウンドを傾聴する情報提供者個人の状態を測定する手段と、を備えることを特徴とするスタンドアロン型サウンド生成再生装置。
17.生体信号を測定する手段と、上記13.に記載のサウンド生成方法を実行するコンピュータと、該サウンド生成方法によって生成されたサウンドを再生する手段と、前記生体信号を提供し前記サウンドを傾聴する情報提供者個人の状態を測定する手段と、を備えることを特徴とするスタンドアロン型サウンド生成再生装置。
18.上記1.乃至上記12.のいずれか一項に記載のサウンド生成方法のうちの少なくとも1種を実行するサーバコンピュータと、該サウンド生成方法に必要な生体信号を測定する手段及びサウンドを再生する手段を具備するコンピュータネットワークで接続された遠隔地のコンピュータで実行する手段と、を備えることを特徴とするネットワーク配信型サウンド生成再生システム。
19.上記13.に記載のサウンド生成方法を実行するサーバコンピュータと、該サウンド生成方法に必要な生体信号を測定する手段及びサウンドを再生する手段を具備するコンピュータネットワークで接続された遠隔地のコンピュータで実行する手段と、を備えることを特徴とするネットワーク配信型サウンド生成再生システム。
The present invention is as follows.
1. A basic information conversion procedure for converting basic information having chaos into data that can be numerically calculated, and a chaos characteristic space generation procedure for generating a chaos characteristic space by calculating a chaos attractor based on the data converted by the basic information conversion procedure And a sound generation procedure for generating a sound file from data in the chaos characteristic space generated by the chaos characteristic space generation procedure according to a predetermined sound generation rule.
2. Basic information conversion procedure for converting basic information having fractal properties into data that can be numerically calculated, and fractal characteristic space generation for generating fractal characteristic space by extracting fractal features based on the data converted by the basic information conversion procedure A sound generation method comprising: a procedure; and a sound generation procedure for generating a sound file from a fractal characteristic space generated in the fractal characteristic space generation procedure according to a predetermined sound generation rule.
3. A biological signal conversion procedure that converts a time-series generated signal of an information provider individual into data that can be numerically calculated, and a chaos attractor is calculated based on the data converted by the biological signal conversion procedure to generate a chaos characteristic space A chaos characteristic space generation procedure, and a sound generation procedure for generating a sound file adapted to the information provider from data in the chaos characteristic space generated in the chaos characteristic space generation procedure according to a predetermined sound generation rule. Sound generation method characterized by.
4). A biosignal conversion procedure for converting a time-series generated signal of an information provider individual into data that can be numerically calculated, and a self-similar feature is extracted based on the data converted by the biosignal conversion procedure, thereby creating a fractal characteristic space. A fractal characteristic space generation procedure to be generated, and a sound generation procedure to generate a sound file adapted to the information provider according to a predetermined sound generation rule from the fractal characteristic space generated by the fractal characteristic space generation procedure. A characteristic sound generation method.
5. The biological signal conversion procedure includes a biological signal measurement procedure for measuring a biological signal, a frequency analysis procedure for calculating biological signal data measured in the biological signal measurement procedure as numerical data for each frequency band, and the frequency analysis procedure. And 3. a sound generation procedure corresponding to a nerve type characteristic in the living body of the individual information provider. The described sound generation method.
6). The biological signal conversion procedure includes a biological signal measurement procedure for measuring a biological signal, a frequency analysis procedure for calculating biological signal data measured in the biological signal measurement procedure as numerical data for each frequency band, and the frequency analysis procedure. And 4. a sound generation procedure corresponding to a nerve type characteristic in the living body of the individual information provider. The described sound generation method.
7). The chaos characteristic space generation procedure is a state evaluation procedure that compares the numerical data of the nerve type characteristics in the living body of the information provider individual calculated in the frequency analysis procedure, and evaluates the psychosomatic state of the information provider, and the state 2. A cutting plane changing procedure for changing a plane for cutting the chaotic attractor according to the evaluation in the evaluation procedure. The described sound generation method.
8). The fractal characteristic space generation procedure compares the numerical data of nerve type characteristics in the living body of the information provider individual calculated in the frequency analysis procedure, and evaluates the state and condition of the information provider, and the state 3. A scaling width changing procedure for changing a scaling width for extracting a fractal feature in accordance with the evaluation in the evaluation procedure. The described sound generation method.
9. The sound generation procedure includes an interface capable of interacting with an information provider of the biological signal, a condition input procedure that allows a condition relating to sound generation to be input, and the sound generation rule according to the condition input in the condition input procedure Generating a sound file according to the generation rule set in the generation rule setting procedure. The described sound generation method.
10. The sound generation procedure includes an interface capable of interacting with an information provider of the biological signal, a condition input procedure that allows a condition relating to sound generation to be input, and the sound generation rule according to the condition input in the condition input procedure Generating the sound file according to the generation rule set in the generation rule setting procedure. The described sound generation method.
11. In the state evaluation procedure, the psychosomatic state is evaluated based on the appearance rate of the α wave of the electroencephalogram. The described sound generation method.
12 In the state evaluation procedure, the psychosomatic state is evaluated based on the appearance rate of α waves of the electroencephalogram. The described sound generation method.
13. 2. At least one of pulse wave, electrocardiogram, electroencephalogram, myoelectricity, and respiration is used as the biological signal. To 10. The sound generation method according to any one of the above.
14 Above 1. To 12. A computer-readable storage medium having recorded thereon a program for causing a computer to execute at least one of the sound generation methods according to any one of the above.
15. 13. above. A computer-readable storage medium in which a program for causing a computer to execute the sound generation method described in 1 is recorded.
16. Means for measuring a biological signal; To 12. A computer that executes at least one of the sound generation methods according to any one of the above, a means for reproducing the sound generated by the sound generation method, and information for providing the biological signal and listening to the sound A stand-alone type sound generating and reproducing apparatus comprising: means for measuring a provider's individual state.
17. Means for measuring a biological signal; A computer that executes the sound generation method according to claim 1, means for reproducing the sound generated by the sound generation method, means for measuring the state of an individual information provider who provides the biological signal and listens to the sound, A stand-alone type sound generating and reproducing device comprising:
18. Above 1. To 12. A server computer that executes at least one of the sound generation methods according to any one of the above, a computer network that includes means for measuring biological signals necessary for the sound generation method and means for reproducing sound A network-distributed sound generating / reproducing system, comprising:
19. 13. above. A server computer that executes the sound generation method according to claim 1, a means for measuring a biological signal necessary for the sound generation method, and a means for executing the remote computer connected by a computer network including means for reproducing the sound. A network-distributed sound generation / playback system comprising:

本発明のサウンド生成方法によれば、カオス性及び/又はフラクタル性を有する基礎情報を数値演算可能なデータに変換することにより、カオス性及び/又はフラクタル性を有する基礎情報のカオス及び/又はフラクタル特性を算出し、得られたカオス及び/又はフラクタルデータに生成ルールを適用することにより、カオス性並びにフラクタル性を有する基礎情報に対するサウンドの生成をすることができる。   According to the sound generation method of the present invention, chaos and / or fractal of basic information having chaos and / or fractal is obtained by converting basic information having chaos and / or fractal to data that can be numerically calculated. By calculating the characteristics and applying the generation rules to the obtained chaos and / or fractal data, it is possible to generate sound for the basic information having chaos and fractal characteristics.

本発明のサウンド生成方法によれば、情報提供者の脈波及び脳波等を測定しながら、カオスアトラクタを切断する平面、並びにフラクタル特徴を抽出するスケーリング幅を変化させることにより、情報提供者にとってより安らぎ効果を得ることを可能とするサウンドを生成することができる。   According to the sound generation method of the present invention, by measuring the pulse wave and brain wave of the information provider, the plane for cutting the chaotic attractor and the scaling width for extracting the fractal feature are changed, thereby making it more useful for the information provider. It is possible to generate a sound that makes it possible to obtain a peaceful effect.

また、情報提供者と対話しながらサウンド生成ルールを変更する場合は、情報提供者にとってより安らぎ効果を得るサウンドを生成することができる。
更に、サウンドファイルを生成する基礎情報として、生体情報を用いる場合は、その生体情報提供者個人に適応したサウンドを生成できるので、例えば、その生体情報提供者の気分や体調が良好なときの生体情報を基にし、体調を崩しかけたとき、気分がめいっているときなどに対して、体調改善及び気分回復等といった効果を発揮するサウンドを生成することができる。乳児に対して出生前に母親の胎内で聞いていた音を聞かせることで、乳児を落ち着かせることができるといったことと似て、個人特有のサウンドを聞くことで、その人を癒したり、励ましたりすることになり、一般的に癒しといわれている自然界の音を聞かせるのとは、音そのものの本質が異なることになる。
In addition, when changing the sound generation rule while interacting with the information provider, it is possible to generate a sound that provides a more relaxing effect for the information provider.
Furthermore, when using biological information as basic information for generating a sound file, it is possible to generate a sound adapted to the individual of the biological information provider. For example, the biological information provider when the mood or physical condition of the biological information provider is good Based on the information, it is possible to generate a sound that exhibits effects such as improvement of physical condition, recovery of mood, etc., when the physical condition is about to be lost or when the person is feeling sick. Similar to being able to calm an infant by letting the infant hear the sound that he had heard in his mother's womb before birth, he can heal or encourage the person by listening to individual sounds. The nature of the sound itself is different from listening to the sound of the natural world that is generally said to heal.

心身状態を生体信号の周波数帯域別データによって評価し、得られる評価値がより好ましい状態になるように収束させるために、切断面並びにスケーリング幅の変更と評価を繰り返すことで、最善と考えられるものが得られることとなる。   What is considered to be the best by evaluating the psychosomatic state based on the data for each frequency band of the biological signal and repeating the change and evaluation of the cut plane and scaling width in order to converge the obtained evaluation value to a more favorable state Will be obtained.

本サウンド生成方法のプログラムを格納したコンピュータ読み取り可能な記憶媒体によれば、上記サウンド生成方法を実行し、サウンドを生成することができる。   According to the computer readable storage medium storing the program for the sound generation method, the sound generation method can be executed to generate a sound.

本スタンドアロン型サウンド生成再生装置によれば、装置単体だけで上記サウンド生成方法を用いてサウンドを生成することができる。   According to the stand-alone type sound generation / playback apparatus, it is possible to generate a sound using the sound generation method by using only the apparatus itself.

本ネットワーク配信型サウンド生成再生システムによれば、遠隔地のコンピュータで得た生体信号を元にして、サーバコンピュータ側で上記サウンド生成方法を用いてサウンドを生成することができる。   According to this network distribution type sound generation and reproduction system, sound can be generated on the server computer side using the sound generation method based on a biological signal obtained by a remote computer.

以下、本発明の実施の形態を図面に基づいて説明する。
上記「カオス性」は、決定論的な方程式に従う系であっても周期性や概周期性をもたず、一見不規則な挙動を示す性質をいう。また、上記「フラクタル性」は、自己相似性を備えることをいう。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
The “chaotic property” mentioned above refers to a property that does not have periodicity or almost periodicity even in a system that follows a deterministic equation, and exhibits seemingly irregular behavior. Further, the “fractal property” means having self-similarity.

カオス性並びにフラクタル性を有する「基礎情報」は、生物及び気象等から由来される信号である。この例として生体信号のほか、自然界で発生する情報、例えば、川のせせらぎのような音データや、風の強さ及び/又は方向の測定データ、地震計で計測された振動データ等を挙げることができる。   The “basic information” having chaotic properties and fractal properties is a signal derived from living things and weather. Examples of this include biological signals, as well as information that occurs in nature, such as sound data such as river buzz, measurement data of wind intensity and / or direction, vibration data measured by a seismometer, etc. Can do.

上記「生体信号」は身体から測定可能な信号であればよく、任意に選択することができる。この例として脳波、脈拍を測定して得られた脈波、心臓の拍動に伴う活動電位の時間的変化である心電、筋肉の収縮に伴う電位の時間的変化である筋電、及び口からはき出す息の圧力又は流量等右の変化である呼気等を挙げることができる。   The “biological signal” may be any signal that can be measured from the body and can be arbitrarily selected. Examples of this include an electroencephalogram, a pulse wave obtained by measuring a pulse, an electrocardiogram that is a temporal change in action potential associated with the heartbeat, a myoelectric that is a temporal change in potential associated with muscle contraction, and the mouth. Exhalation which is a right change such as the pressure or flow rate of the breath exhaled from the air can be mentioned.

上記「サウンドファイル」は、サウンドとして再生可能なデータであればよくその形式を特に問わない。また、この例として、音声信号をPCM(Pulse Code Modulation)などの形式でサンプリングした形式や、音の周波数や長さを所定の形式で列挙する形式などを挙げることができる。更に、具体的には、スタンダードMIDIフォーマットファイル(MIDIファイル、SMFファイルともいう)やPCM等の形式でサンプリングしたものをファイル化したもの(WAVEファイル)等を挙げることができる。   The “sound file” is not particularly limited as long as it can be reproduced as sound. Examples of this include a format in which audio signals are sampled in a format such as PCM (Pulse Code Modulation), and a format in which sound frequencies and lengths are listed in a predetermined format. More specifically, a standard MIDI format file (also referred to as MIDI file or SMF file) or a file sampled in a format such as PCM (WAVE file) can be used.

本実施例の生成方法は、第1図に示すように、カオス性並びにフラクタル性を有する基礎情報Aを測定し数値演算可能なデータに変換する基礎情報変換部1と、カオスアトラクタを算出することにより得られるカオス特性空間を生成するカオス特性空間生成手順2と、サウンド生成ルールBを適用することにより、カオス的な振る舞いをするサウンドファイルCを生成するサウンド生成手順3を備える。   As shown in FIG. 1, the generation method of this embodiment measures basic information A having chaotic properties and fractal properties and converts it into data that can be numerically calculated, and calculates a chaotic attractor. The chaos characteristic space generation procedure 2 for generating the chaos characteristic space obtained by the above and the sound generation procedure 3 for generating the sound file C that performs chaotic behavior by applying the sound generation rule B are provided.

前記基礎情報変換部1は、カオス性及び/又はフラクタル性を有する基礎情報Aを、情報測定装置101により数値演算可能なデータに変換し、測定用コンピュータ102により時系列なカオス性並びにフラクタル性を有する基礎情報Aを測定する基礎情報変換手順を具備する。   The basic information conversion unit 1 converts the basic information A having chaotic properties and / or fractal properties into data that can be numerically calculated by the information measuring device 101, and the time series chaotic properties and fractal properties are obtained by the measuring computer 102. The basic information conversion procedure for measuring the basic information A is provided.

また、本実施例のサウンド生成方法は、第1図、第2図に示すように、カオス性並びにフラクタル性を有する基礎情報Aを測定し数値演算可能なデータに変換する基礎情報変換部1と、フラクタル特徴を抽出することにより得られるフラクタル特性空間6と、サウンド生成ルールBを適用することにより、フラクタル的な振る舞いをするサウンドファイルCを生成するサウンド生成手順3を備える。   In addition, the sound generation method of this embodiment includes a basic information conversion unit 1 that measures basic information A having chaos and fractal properties and converts it into numerically operable data, as shown in FIGS. A sound generation procedure 3 for generating a sound file C having a fractal behavior by applying the fractal characteristic space 6 obtained by extracting the fractal feature and the sound generation rule B is provided.

本発明の生体信号を用いたサウンド生成方法プログラムを記録したコンピュータ読み取り可能な記憶媒体は、生体信号を用いたサウンド生成をコンピュータに行わせるプログラムと、サウンド生成に用いる生体信号と、サウンド生成により得られたサウンドファイルと、を備えるように構成される。   A computer-readable storage medium storing a sound generation method program using a biological signal of the present invention is obtained by a program for causing a computer to generate a sound using a biological signal, a biological signal used for sound generation, and the sound generation. And a sound file.

また、本発明のサウンド生成再生装置は、生体信号の測定と、サウンドファイルの再生とを一体型あるいはネットワーク接続型で備えるように構成される。   The sound generation / playback apparatus of the present invention is configured to include measurement of a biological signal and playback of a sound file in an integrated type or a network connection type.

一体型のサウンド生成再生装置は第3図に示すように、傾聴者状態測定部、生体信号測定部、サウンド生成部及びサウンド再生部を備える。   As shown in FIG. 3, the integrated sound generating / reproducing apparatus includes a listener state measuring unit, a biological signal measuring unit, a sound generating unit, and a sound reproducing unit.

また、ネットワーク型のサウンド生成再生装置は第4図に示すように、サウンド生成部を備えるサーバコンピュータと、このサーバコンピュータにネットワークを介して接続される遠隔地のコンピュータであるクライアント端末とを備える。また、クライアント端末は、傾聴者状態測定部、生体信号測定部及びサウンド再生部を備える。更に、ネットワークは、傾聴者状態測定部及び生体信号測定部で得られた傾聴者状態及び生体信号をサーバコンピュータのサウンド生成部に送信したり、サーバコンピュータのサウンド生成部から得られたサウンドファイルをクライアント端末のサウンド再生部に送信するために用いられる。   Further, as shown in FIG. 4, the network type sound generation / playback apparatus includes a server computer including a sound generation unit and a client terminal which is a remote computer connected to the server computer via a network. The client terminal includes a listener state measurement unit, a biological signal measurement unit, and a sound reproduction unit. Further, the network transmits the listener state and the biological signal obtained by the listener state measurement unit and the biological signal measurement unit to the sound generation unit of the server computer, and the sound file obtained from the sound generation unit of the server computer. Used to transmit to the sound playback unit of the client terminal.

上記「傾聴者状態測定部」は、切断面学習で用いる傾聴者状態を測定する。この傾聴者状態は任意の計測方法で求めることができ、例えば脳波を測定することで求めることができる。また、本傾聴者状態測定部は、脳波を測定し、傾聴者状態を求める。   The “listener state measurement unit” measures a listener state used in cutting plane learning. The listener state can be obtained by an arbitrary measurement method, for example, by measuring an electroencephalogram. The listener state measurement unit measures brain waves and obtains the listener state.

上記「生体信号測定部」は、生体信号の測定を行う。また、生体信号として脈波を用いる。   The “biological signal measurement unit” measures a biological signal. Moreover, a pulse wave is used as a biological signal.

上記「サウンド生成部」は、サウンド生成方法を実行することができるコンピュータを具備し、傾聴者状態測定部で得た傾聴者状態、及び生体信号測定部で得た生体信号を元にサウンドを生成する。   The “sound generation unit” includes a computer capable of executing a sound generation method, and generates sound based on the listener state obtained by the listener state measurement unit and the biological signal obtained by the biological signal measurement unit. To do.

上記「サウンド再生部」は、サウンド生成部で作成されたサウンドを再生するスピーカ及びアンプ等を備える。   The “sound reproduction unit” includes a speaker, an amplifier, and the like that reproduce the sound created by the sound generation unit.

また、上記「ネットワーク」はその種類及び形態を問わない。
尚、本サウンド生成方法プログラムを記録したコンピュータ読み取り可能な記憶媒体及びサウンド生成再生装置は、カオス性又はフラクタル性のいずれかを用いたサウンド生成方法を利用してよいし、両方のサウンド生成方法を備え、任意に選択して使用することもできる。更に、複数のサウンド生成方法を用いて得られたサウンドファイルを1つにミキシングすることもできる。
The “network” may be of any type and form.
Note that the computer-readable storage medium and the sound generation / playback apparatus in which the sound generation method program is recorded may use a sound generation method using either chaotic property or fractal property, or both sound generation methods. It is also possible to select and use arbitrarily. Furthermore, sound files obtained using a plurality of sound generation methods can be mixed into one.

1.カオス性基礎情報からのサウンド生成
前記カオス特性空間生成手順2は、測定された時系列なカオス性を有する基礎情報Aを1次元の時系列データとみなし、x(t)と定義する。ここでtは時間の経過を表す。測定された時系列なカオス性を有する基礎情報Aの例として、第5図及び第6図に脈波のグラフを示した。
1. Sound generation from chaotic basic information The chaotic characteristic space generating procedure 2 regards the measured basic information A having time-series chaotic properties as one-dimensional time-series data and defines x (t). Here, t represents the passage of time. FIG. 5 and FIG. 6 show pulse wave graphs as an example of the measured basic information A having time-series chaos.

カオスアトラクタ算出部201は、時間遅れτ(秒)と埋め込み次元m(次元)という二つの任意のパラメータを用いることにより、カオスアトラクタを算出する。カオスアトラクタはm次元の多変量データとなる。カオスアトラクタの定義式を数1に示す。また、測定された脈波に対して、時間遅れを0.1秒、埋め込み次元を3次元に設定し、数1を用いて算出したカオスアトラクタの3次元グラフの2つの例を第7図及び第8図に示す。   The chaos attractor calculation unit 201 calculates a chaos attractor by using two arbitrary parameters, a time delay τ (second) and an embedding dimension m (dimension). Chaotic attractor is m-dimensional multivariate data. The formula for defining the chaos attractor is shown in Equation 1. In addition, two examples of the three-dimensional graph of the chaotic attractor calculated using Equation 1 with the time delay set to 0.1 second and the embedding dimension set to three dimensions for the measured pulse wave are shown in FIGS. It is shown in FIG.

Figure 2006346471
Figure 2006346471

切断面構成部202は、算出されたカオスアトラクタに対してポアンカレ写像を用いてカオス周期の微小なズレを計算する。この計算は、カオスアトラクタの解軌道を所定の面で切断し、その切断面(ポアンカレ切断面)上にプロットされる(m−1)次元の点列p(i)を求める。ここでiは交点の集合内における時間推移的な順番である。   The cut surface constituting unit 202 calculates a small shift of the chaotic period using the Poincare map for the calculated chaotic attractor. In this calculation, the solution orbit of the chaotic attractor is cut along a predetermined plane, and an (m−1) -dimensional point sequence p (i) plotted on the cut plane (Poincare cut plane) is obtained. Here, i is the time transition order in the set of intersections.

基準点設定部203は、カオスアトラクタと切断面との交点とのベクトルを求めるために用いられる基準点Pを、切断面上の所定の位置に設定する。この基準点Pは任意の位置を選択することができる。 Reference point setting unit 203, a reference point P b to be used to determine the vector with the intersection of the chaotic attractor and the cutting plane is set at a predetermined position on the cut surface. This reference point P b may be arbitrarily selected position.

サウンド生成手順3のルール適用部301は、カオスアトラクタの切断面上の交点である点列p(i)の位置ベクトルp(i)と基準点pの位置ベクトルpの差P(i)を求める。例えば、第9図に示すように基準点pと切断面上の交点p(1)〜p(5)との間のベクトルP(i)として計算することができる。 Rule application unit 301 of the sound generation step 3, the difference between the position vector p b of the position vector p (i) and the reference point p b of the chaotic sequence of points is the intersection of the cutting plane of the tractor p (i) P (i) Ask for. For example, it can be calculated as a vector P (i) between the reference point as shown in FIG. 9 p b the intersection of the cutting plane p (1) ~p (5) .

ベクトルP(i)とサウンド生成ルールBを組み合わせることにより、サウンド生成を行う。サウンド生成では高さn、長さl、強さvから構成されるサウンドの最小単位(音素)を決定する。m次元のカオスアトラクタから生成されるサウンドは、少なくともm音の和音の系列で構成することができる。サウンド生成ルールBは、例えば、ポアンカレ切断面上の点列p(i)のベクトルP(i)から、数2〜数5で表される変換式で与えられる。   Sound generation is performed by combining the vector P (i) and the sound generation rule B. In sound generation, the minimum unit (phoneme) of sound composed of height n, length l, and strength v is determined. A sound generated from an m-dimensional chaotic attractor can be composed of a sequence of at least m chords. The sound generation rule B is given by, for example, a conversion formula expressed by Equations 2 to 5 from the vector P (i) of the point sequence p (i) on the Poincare section.

Figure 2006346471
Figure 2006346471

Figure 2006346471
Figure 2006346471

Figure 2006346471
Figure 2006346471

Figure 2006346471
Figure 2006346471

ここで、S(i)はチャンネルkにおけるi番目の音素である。また、m(a,b)はオクターブ高a、音階番号bの音階要素であり、rは選択された音階における音の数である。更に、P(i)はベクトルP(i)におけるk番目の要素値を表し、modは剰余演算を表す。 Here, S k (i) is the i-th phoneme in channel k. M (a, b) is a scale element having an octave height a and a scale number b, and r is the number of sounds in the selected scale. Furthermore, P k (i) represents the k-th element value in the vector P (i), and mod represents the remainder operation.

尚、サウンド生成ルールは、上記以外のルールを適用することができ、例えば前回及び今回の交点から得た2ベクトルP(i−1)、P(i)の偏角等、ポアンカレ切断面上の交点及び基準点から求めることができる長さ及び角度等の任意の要素を用いることができる。また、これらの要素を用いて、演奏楽器(音色)の種類、コード進行、ビブラート、ポルタメント及びエコー等の演奏効果を決定し、より心理効果の高いサウンドを生成することができる。   Note that rules other than those described above can be applied to the sound generation rule. For example, the deflection angle of the two vectors P (i−1) and P (i) obtained from the previous and current intersection points on the Poincare cut surface. Any element such as a length and an angle that can be obtained from the intersection and the reference point can be used. Furthermore, using these elements, it is possible to determine performance effects such as the type of musical instrument (tone color), chord progression, vibrato, portamento, and echo, and generate a sound with a higher psychological effect.

2.フラクタル性基礎情報からのサウンド生成
前記フラクタル特性空間6を求める方法としては、測定された時系列なフラクタル性を有する基礎情報に対してスケーリング変換を繰り返し行った基礎情報毎からアトラクタを算出する方法と、測定された基礎情報から直接求める方法が挙げられる。
2. Sound generation from fractal basic information As a method for obtaining the fractal characteristic space 6, a method for calculating an attractor from each basic information obtained by repeatedly performing scaling conversion on the measured basic information having fractal characteristics in time series, and And a method of directly obtaining from the measured basic information.

前記フラクタル特性空間6は、測定された時系列なフラクタル性を有する基礎情報Aを1次元の時系列データとみなし、x(t)と定義する。ここでtは時間の経過を表す。このようなx(t)の2つの例を第10図〜第13図と、第14図(a)、第14図(b)、第15図(a)、第15図(b)に示す。また、第11図〜第13図は第10図の一部分を拡大したものであり、第14図(b)、第15図(a)、第15図(b)は第14図(a)の一部分を拡大したものである。このようなx(t)は、測定された時系列なフラクタル性を有する基礎情報Aの例である脈波のグラフに対してスケーリング変換を行い、自己相似的なフラクタル特徴を取り出すことで求められる。   The fractal characteristic space 6 regards the measured basic information A having time-series fractal properties as one-dimensional time-series data and defines x (t). Here, t represents the passage of time. Two examples of such x (t) are shown in FIGS. 10 to 13 and FIGS. 14 (a), 14 (b), 15 (a), and 15 (b). . FIGS. 11 to 13 are enlarged views of a part of FIG. 10. FIGS. 14 (b), 15 (a), and 15 (b) are those of FIG. 14 (a). A part of it is enlarged. Such x (t) is obtained by performing scaling conversion on a pulse wave graph, which is an example of the basic information A having time series fractal characteristics, and extracting self-similar fractal features. .

例えば、第13図は、脈波センサで4秒間測定された指尖容積脈波の時系列データの1/5(0.8秒間)分を時系列方向に5倍スケール伸長する操作を2回繰り返した結果を示しており、第16図〜第19図はそれぞれの時系列の脈波(a)から数1を用いて算出された(b)アトラクタの3次元グラフを示している。   For example, FIG. 13 shows twice the operation of extending the time series direction by a factor of 1/5 (0.8 seconds) of the time series data of the fingertip volume pulse wave measured for 4 seconds by the pulse wave sensor. FIG. 16 to FIG. 19 show the three-dimensional graph of the attractor (b) calculated using Equation 1 from each time-series pulse wave (a).

このようにして得られた3つのアトラクタ空間に対して、前記サウンド変換ルールを適用したサウンド系列をミキシングすることにより、フラクタル性を有する基礎情報に対するサウンドが生成される。   By mixing the sound sequence to which the sound conversion rule is applied to the three attractor spaces obtained in this way, a sound for basic information having fractal characteristics is generated.

また、時系列データの変化がもたらす複雑な形状を偏角の変動と捉え、複数の適切なスケールで偏角の変動を観測することにより、測定された基礎情報から直接フラクタル特徴を抽出することも可能である。   It is also possible to extract the fractal features directly from the measured basic information by observing the complex shape caused by the change of time series data as the variation of declination and observing the variation of declination at multiple appropriate scales. Is possible.

例えば、第20図(a)に示される測定された指尖容積脈波に対して、第22図に示すような偏角の算出方法で偏角の変動θ(t)を範囲|t−ti±k|を変化させながら測定する。この方法は、ある所定周期で基礎情報の一点P(t,y(t))を求めて基準とし、その前周期Pi−k(ti−k,y(ti−k))と、次周期Pi+k(ti+k,y(ti+k))の2点から構成される角度をθ(t)とする。 For example, with respect to the measured fingertip plethysmogram shown in FIG. 20 (a), the deviation θ (t) in the range | t i − Measure while changing t i ± k |. In this method, a point P i (t i , y (t i )) of basic information is determined and used as a reference in a predetermined cycle, and the previous period P i−k (t i−k , y (t i−k )) is used. ) And the next period P i + k (t i + k , y (t i + k )) is defined as θ (t i ).

範囲|t−ti±k|を0.5〜0.005(秒)まで変化させることにより、第20図(a)、第21図(a)及び第21図(b)に示すような3つの偏角の変動θ(t)が得られる。この系列θ(t)を前記サウンド変換ルールにおけるp(i)に置き換え、脈のリズムに合わせたタイミングで、サウンド系列を生成する。得られた3つのサウンドをミキシングすることにより、フラクタル性を有する基礎情報に対するサウンドが生成される。 By changing the range | t i −t i ± k | from 0.5 to 0.005 (seconds), as shown in FIGS. 20 (a), 21 (a) and 21 (b). Three variations of declination θ (t) are obtained. This series θ (t) is replaced with p (i) in the sound conversion rule, and a sound series is generated at a timing that matches the rhythm of the pulse. By mixing the obtained three sounds, a sound for basic information having fractal characteristics is generated.

3.切断面学習
切断面学習4は、第23図に示すように、情報提供者の脳波を測定する脳波測定部401と、脳波データを周波数帯域ごとの数値データとして計算する周波数解析部402と、周波数帯域ごとの数値データを比較し、心身状態を評価する脳波評価部403と、評価に応じてカオスアトラクタを切断する平面を変更する切断面変更部404を備えるように構成される。
3. Cut surface learning As shown in FIG. 23, the cut surface learning 4 includes an electroencephalogram measurement unit 401 that measures the brain wave of the information provider, a frequency analysis unit 402 that calculates the electroencephalogram data as numerical data for each frequency band, It is configured to include an electroencephalogram evaluation unit 403 that compares numerical data for each band and evaluates a psychosomatic state, and a cutting plane changing unit 404 that changes a plane that cuts the chaotic attractor according to the evaluation.

本切断面学習4は、第24図に示す切断面学習処理を説明するフローチャートのように、脳波等の基礎情報を基に生成したサウンドを再生する。次いで、再生したサウンドを聴いた人の脳波を検出してその評価を行い、評価に応じた切断面の変更をするフィードバックを行う。これによって、より適したサウンドを生成することができる。   The cut surface learning 4 reproduces a sound generated based on basic information such as an electroencephalogram, as in the flowchart explaining the cut surface learning process shown in FIG. Next, a brain wave of a person who listens to the reproduced sound is detected and evaluated, and feedback for changing the cut surface according to the evaluation is performed. As a result, a more suitable sound can be generated.

また、本実施例におけるスケーリング幅学習7は、第25図に示すように、情報提供者の脳波を測定する脳波測定部701と、脳波データを周波数帯域ごとの数値データとして計算する周波数解析部702と、周波数帯域ごとの数値データを比較し、心身状態を評価する脳波評価部703と、評価に応じてフラクタル特徴を抽出するためのスケーリング幅を変更するスケーリング幅変更部704を備えるように構成される。   In addition, as shown in FIG. 25, the scaling width learning 7 in the present embodiment includes an electroencephalogram measurement unit 701 that measures an information provider's electroencephalogram, and a frequency analysis unit 702 that calculates electroencephalogram data as numerical data for each frequency band. And an electroencephalogram evaluation unit 703 that compares numerical data for each frequency band and evaluates a psychosomatic state, and a scaling width change unit 704 that changes a scaling width for extracting a fractal feature according to the evaluation. The

4.スケーリング幅学習
本スケーリング幅学習7は、第26図に示すスケーリング幅学習処理を説明するフローチャートのように、脳波等の基礎情報を基に生成したサウンドを再生する。次いで、再生したサウンドを聴いた人の脳波を検出してその評価を行い、評価に応じたスケーリング幅の変更をするフィードバックを行う。これによって、より適したサウンドを生成することができる。
4). Scaling Width Learning The scaling width learning 7 reproduces a sound generated based on basic information such as an electroencephalogram as in the flowchart for explaining the scaling width learning process shown in FIG. Next, the brain wave of the person who listened to the reproduced sound is detected and evaluated, and feedback is performed to change the scaling width according to the evaluation. As a result, a more suitable sound can be generated.

前記脳波測定部401、701は、情報提供者の頭部複数箇所に電極を装着し、各部位における脳波を測定し、数値演算可能なデータに変換する。
また、脳波測定手法については、国際脳波学会標準法(国際10/20法)に準拠している。脳波測定に用いる電極位置としては、(Fp1、Fp2、F7、F8、Fz、C3、C4、Pz、T5、T6、O1、O2)の12箇所を採用している。その他、指尖脈波、眼球運動、及び、心電図も測定している。
The electroencephalogram measurement units 401 and 701 measure the electroencephalogram in each part by attaching electrodes to a plurality of information provider's heads, and convert them into data that can be numerically calculated.
In addition, the electroencephalogram measurement method conforms to the International Electroencephalographic Society Standard Method (International 10/20 Method). As electrode positions used for the electroencephalogram measurement, 12 positions (Fp1, Fp2, F7, F8, Fz, C3, C4, Pz, T5, T6, O1, O2) are employed. In addition, finger plethysmogram, eye movement, and electrocardiogram are also measured.

脳波を測定する場合、例えば第27図の脳波測定環境の簡略図に示すように、脳波測定用の電極を装着した被験者の前方に所定の間隔を空けてサウンド再生用のスピーカを設置する。また、本サウンド生成方法を動作させるコンピュータを動作させ、得られたサウンドファイルをこのスピーカで再生する。更に、第28図、第29図に示すように、電極を装着する位置は、国際脳波学会標準法(国際10/20法)による電極位置の配置図に従って行う。   When measuring an electroencephalogram, for example, as shown in a simplified diagram of an electroencephalogram measurement environment in FIG. 27, a speaker for sound reproduction is installed at a predetermined interval in front of a subject wearing an electroencephalogram measurement electrode. Further, the computer that operates the sound generation method is operated, and the obtained sound file is reproduced by the speaker. Furthermore, as shown in FIG. 28 and FIG. 29, the position where the electrode is mounted is determined according to the electrode position layout diagram according to the International Electroencephalographic Society Standard Method (International 10/20 Method).

前記周波数解析部402、702は、測定して得られた脳波データを、δ波(0.5〜3Hz)、θ波(3〜7Hz)、α波(7〜13Hz)、β波(13〜30Hz)、γ波(30〜40Hz)の各周波数帯域に分解し、それぞれのパワースペクトルを計算することにより脳の状況を把握できる数値データにし、脳波を解析する。   The frequency analysis units 402 and 702 convert the electroencephalogram data obtained by measurement into δ wave (0.5 to 3 Hz), θ wave (3 to 7 Hz), α wave (7 to 13 Hz), β wave (13 to 30 Hz) and γ waves (30 to 40 Hz) are decomposed into frequency bands, and the power spectrum is calculated to obtain numerical data that can grasp the state of the brain, and the brain waves are analyzed.

前記脳波評価部403は、解析により得られた周波数帯域ごとの数値データの相関を調べ、情報提供者が安らいでいるかどうかを評価し、その結果を報酬値として蓄積する。安らぎの評価尺度としては、各周波数帯域の波が全体の脳波に占める割合である各周波数帯域の含有率、各周波数帯域の波の強さそのものを表す各周波数帯域のスペクトル値を用いて全体的な傾向を掴むことで脳の状態を評価し、評価値が高くなる切断面に対して正の報酬値を与え、評価値が低くなる切断面に対して負の報酬値を与える。   The electroencephalogram evaluation unit 403 checks the correlation of numerical data for each frequency band obtained by analysis, evaluates whether the information provider is at rest, and accumulates the result as a reward value. As a measure of peacefulness, the overall content of each frequency band, which is the ratio of waves in each frequency band to the total brain wave, and the spectrum value of each frequency band that represents the strength of the wave in each frequency band, is used as an overall measure. The state of the brain is evaluated by grasping a tendency, and a positive reward value is given to a cut surface with a high evaluation value, and a negative reward value is given to a cut surface with a low evaluation value.

前記脳波評価部703は、解析により得られた周波数帯域ごとの数値データの相関を調べ、情報提供者が安らいでいるかどうかを評価する。安らぎの評価尺度としては、各周波数帯域の波が全体の脳波に占める割合である各周波数帯域の含有率、各周波数帯域の波の強さそのものを表す各周波数帯域のスペクトル値、を用いて全体的な傾向を掴むことで脳の状態を評価し、評価値が高くなるスケーリング幅に対して正の報酬値を与え、評価値が低くなるスケーリング幅に対して負の報酬値を与える。   The electroencephalogram evaluation unit 703 examines the correlation of numerical data for each frequency band obtained by analysis, and evaluates whether the information provider is at ease. As a measure of peacefulness, the content of each frequency band, which is the ratio of waves in each frequency band to the entire brain wave, and the spectrum value of each frequency band that represents the strength of the wave in each frequency band as a whole The brain state is evaluated by grasping a general tendency, and a positive reward value is given to a scaling range where the evaluation value becomes high, and a negative reward value is given to a scaling range where the evaluation value becomes low.

前記切断面変更部404は、評価値が低くなった場合に、今までの蓄積された報酬値を考慮に入れて、切断面を変更し脳波測定を続行する。評価値が収束した場合には、学習が完了したものとみなし現在の切断面を最適切断面として、脳波測定を終了する。   When the evaluation value becomes low, the cut surface changing unit 404 changes the cut surface in consideration of the reward value accumulated so far and continues the electroencephalogram measurement. When the evaluation value has converged, it is considered that learning has been completed, and the electroencephalogram measurement is terminated with the current cut surface as the optimal cut surface.

前記スケーリング幅変更部704は、評価値が低くなった場合に、今までの蓄積された報酬を考慮に入れて、スケーリング幅を変更し脳波測定を続行する。評価値が収束した場合には、学習が完了したものとみなし現在のスケーリング幅を最適スケーリング幅として、脳波測定を終了する。   When the evaluation value becomes low, the scaling width changing unit 704 changes the scaling width in consideration of the rewards accumulated so far and continues the electroencephalogram measurement. When the evaluation value has converged, it is assumed that the learning has been completed, and the electroencephalogram measurement is terminated using the current scaling width as the optimal scaling width.

本実施例における生成ルール学習5では、第30図に示すように、情報提供者と対話できるインターフェースをもつユーザ入力部501と、入力内容に従ってサウンド生成ルールBを変更する生成ルール変更部502と、変更に応じたサウンドを生成するサウンド変更部503を備えるように構成される。第31図及び第32図は、生成ルール学習処理を説明するフローチャートである。第31図及び第32図に示すように、生成ルール学習5は、生成するサウンドの音色や音量等を変更することができる。   In the generation rule learning 5 in the present embodiment, as shown in FIG. 30, a user input unit 501 having an interface capable of interacting with an information provider, a generation rule changing unit 502 that changes the sound generation rule B according to the input contents, A sound change unit 503 that generates a sound corresponding to the change is provided. 31 and 32 are flowcharts for explaining the generation rule learning process. As shown in FIGS. 31 and 32, the generation rule learning 5 can change the timbre, volume, etc. of the sound to be generated.

サウンドの傾聴者の心身状態を評価する手段としては、脳波以外にも、脈拍や心拍の生体信号を測定し、その変動の周波数スペクトルを観測することで自律神経系の活動を調べる方法を用いる。第33図(a)は、サウンド傾聴時の生体から測定された心拍の変動を算出したグラフであり、この変動の周波数成分を低周波成分(0.024〜0.15(Hz))及び高周波成分(0.15〜0.6(Hz)の2つに分解し、その含有率の比である高周波/低周波を観測することで、サウンド傾聴時の生体における副交感神経と交感神経の活動の比(神経種別特性と呼ぶ)を測定することができる。第33図(b)は第33図(a)の心拍変動を例とした生体信号からの神経種別特性の解析結果のグラフである。サウンド傾聴者から脳波を測定することが困難な場合には、前記高周波/低周波の値の大きさをもってサウンド傾聴者の安らぎの評価値と置き換える。   As a means for evaluating the psychosomatic state of a listener who listens to a sound, a method of investigating the activity of the autonomic nervous system by measuring a biological signal of a pulse or a heartbeat and observing the frequency spectrum of the fluctuation in addition to an electroencephalogram. FIG. 33 (a) is a graph in which the fluctuation of the heart rate measured from the living body at the time of listening to the sound is calculated. The frequency component of this fluctuation is represented by a low frequency component (0.024 to 0.15 (Hz)) and a high frequency. It is divided into two components (0.15 to 0.6 (Hz)), and by observing the high frequency / low frequency which is the ratio of the content rate, the activity of parasympathetic nerve and sympathetic nerve in the living body at the time of sound listening The ratio (referred to as the nerve type characteristic) can be measured, and Fig. 33 (b) is a graph of the analysis result of the nerve type characteristic from the biological signal taking the heart rate variability of Fig. 33 (a) as an example. When it is difficult to measure an electroencephalogram from a sound listener, the value of the high / low frequency value is replaced with an evaluation value of the comfort of the sound listener.

上記ユーザ入力部501は、情報提供者がサウンドを聞きながら、演奏楽器、音高の範囲、音の強さの範囲及び音長の範囲を変更可能なインターフェースを有し、情報提供者の趣味及び嗜好を反映できるようにする。   The user input unit 501 has an interface that allows the information provider to change the musical instrument, the pitch range, the sound intensity range, and the sound length range while listening to the sound. Be able to reflect your preferences.

上記生成ルール変更部502は、情報提供者がインターフェースを用いて変更した項目内容を生成ルールに適用する。   The generation rule changing unit 502 applies the item content changed by the information provider using the interface to the generation rule.

上記サウンド変更部503は、変更された生成ルールを用いてサウンドを生成する。   The sound changing unit 503 generates a sound using the changed generation rule.

このようなカオスアトラクタを用いるサウンド生成方法は、第1図に示すように、基礎情報変換部1によって情報提供者の基礎情報Aを測定し数値演算可能なデータに変換する。次いで、このデータをカオス特性空間生成手順2によってカオスアトラクタを算出する。その後、得られたカオスアトラクタをサウンド生成手順3に渡し、サウンド生成ルールBを適用することにより、カオス的な振る舞いをするサウンドファイルCを生成する。   In the sound generation method using such a chaotic attractor, as shown in FIG. 1, the basic information conversion unit 1 measures the basic information A of the information provider and converts it into data that can be numerically calculated. Next, a chaos attractor is calculated from this data by the chaos characteristic space generation procedure 2. Thereafter, the obtained chaotic attractor is passed to the sound generation procedure 3 and the sound generation rule B is applied to generate a sound file C that behaves like a chaos.

また、フラクタル特徴を用いるサウンド生成方法は、第2図に示すように、基礎情報変換部1によって情報提供者の基礎情報Aを測定し数値演算可能なデータに変換する。次いで、このデータをフラクタル特性空間6によってフラクタル特徴を算出する。その後、得られたフラクタル特徴をサウンド生成手順3に渡し、サウンド生成ルールBを適用することにより、サウンドファイルCを生成する。   In the sound generation method using the fractal feature, as shown in FIG. 2, the basic information conversion unit 1 measures the basic information A of the information provider and converts it into data that can be numerically calculated. Next, a fractal feature is calculated from this data by the fractal characteristic space 6. Thereafter, the obtained fractal feature is passed to the sound generation procedure 3 and a sound file C is generated by applying the sound generation rule B.

本発明のカオス特性を有する基礎情報からのサウンド生成方法の全体構成を説明するための説明図である。It is explanatory drawing for demonstrating the whole structure of the sound production | generation method from the basic information which has the chaotic characteristic of this invention. 本発明のフラクタル特性を有する基礎情報からのサウンド生成方法の全体構成を説明するための説明図である。It is explanatory drawing for demonstrating the whole structure of the sound production | generation method from the basic information which has the fractal characteristic of this invention. スタンドアロン型サウンド生成再生装置の構成図である。It is a block diagram of a stand-alone type sound generating and reproducing apparatus. ネットワーク配信型サウンド生成再生装置の構成図である。1 is a configuration diagram of a network distribution type sound generation / playback apparatus. 測定された脈波のグラフである。It is a graph of the measured pulse wave. 測定された脈波のグラフである。It is a graph of the measured pulse wave. 算出されたカオスアトラクタの3次元グラフである。It is a three-dimensional graph of the calculated chaotic attractor. 算出されたカオスアトラクタの3次元グラフである。It is a three-dimensional graph of the calculated chaotic attractor. 切断面にプロットされる様子を表す模式図である。It is a schematic diagram showing a mode that it is plotted on a cut surface. 脈波データを例としたフラクタル特徴抽出の過程におけるスケーリング変換の図である。It is a figure of scaling conversion in the process of fractal feature extraction taking pulse wave data as an example. 脈波データを例としたフラクタル特徴抽出の過程におけるスケーリング変換の図である。It is a figure of scaling conversion in the process of fractal feature extraction taking pulse wave data as an example. 脈波データを例としたフラクタル特徴抽出の過程におけるスケーリング変換の図である。It is a figure of scaling conversion in the process of fractal feature extraction taking pulse wave data as an example. 脈波データを例としたフラクタル特徴抽出の過程におけるスケーリング変換の図である。It is a figure of scaling conversion in the process of fractal feature extraction taking pulse wave data as an example. 脈波データを例としたフラクタル特徴抽出の過程におけるスケーリング変換の図(a)及びその一部分を拡大したもの(b)である。FIG. 4A is a scaling conversion diagram in the process of fractal feature extraction taking pulse wave data as an example, and FIG. 図14(b)の脈波データを例としたフラクタル特徴抽出の過程におけるスケーリング変換の図の一部分を拡大したもの(a)及びその一部分を拡大したものである。FIG. 14 is an enlarged view of a part of the scaling conversion diagram in the process of fractal feature extraction taking the pulse wave data of FIG. 脈波グラフ(a)と、該脈波グラフ(a)をスケーリング変換して算出したカオスアトラクタの3次元グラフ(b)である。It is a three-dimensional graph (b) of a pulse wave graph (a) and a chaotic attractor calculated by scaling conversion of the pulse wave graph (a). 脈波グラフ(a)と、該脈波グラフ(a)をスケーリング変換して算出したカオスアトラクタの3次元グラフ(b)である。It is a three-dimensional graph (b) of a pulse wave graph (a) and a chaotic attractor calculated by scaling conversion of the pulse wave graph (a). 脈波グラフ(a)と、該脈波グラフをスケーリング変換して算出したカオスアトラクタの3次元グラフ(b)である。A pulse wave graph (a) and a three-dimensional graph (b) of a chaotic attractor calculated by scaling conversion of the pulse wave graph. スケーリング変換された各脈波データから算出されたカオスアトラクタの3次元グラフである図16(b)、図17(b)、図18(b)を列挙したものである。FIG. 16B, FIG. 17B, and FIG. 18B, which are three-dimensional graphs of chaotic attractors calculated from each scale-converted pulse wave data, are listed. 脈波データを例とした基礎情報から直接抽出されたフラクタル特徴のグラフであり、(a)は脈波の時系列データグラフ、(b)は|t−ti±k|=0.5秒のときのデータグラフである。It is a graph of a fractal feature directly extracted from basic information using pulse wave data as an example, (a) is a time-series data graph of pulse waves, and (b) is | t i −t i ± k | = 0.5. It is a data graph at the time of second. 脈波データを例とした基礎情報から直接抽出されたフラクタル特徴のグラフであり、(b)は|t−ti±k|=0.05秒のときのデータグラフ、(b)は|t−ti±k|=0.005秒のときのデータグラフである。It is a graph of a fractal feature directly extracted from basic information using pulse wave data as an example, (b) is a data graph when | t i −t i ± k | = 0.05 seconds, and (b) is | It is a data graph when t i −t i ± k | = 0.005 seconds. 脈波データを例とした基礎情報から直接フラクタル特徴を抽出する過程における特徴抽出の測定方法を表す模式図である。It is a schematic diagram showing the measurement method of the feature extraction in the process of extracting a fractal feature directly from the basic information which made pulse wave data an example. 本発明の切断面学習処理の全体構成を説明するための説明である。It is description for demonstrating the whole structure of the cut surface learning process of this invention. 本発明の切断面学習処理を説明するフローチャートである。It is a flowchart explaining the cut surface learning process of this invention. 本発明のスケーリング幅学習処理の全体構成を説明するための説明図である。It is explanatory drawing for demonstrating the whole structure of the scaling width learning process of this invention. 本発明のスケーリング幅学習処理を説明するフローチャートである。It is a flowchart explaining the scaling width learning process of this invention. 脳波測定環境の模式図である。It is a schematic diagram of an electroencephalogram measurement environment. 国際脳波学会標準法(国際10/20法)による電極位置を上から見た模式図である。It is the schematic diagram which looked at the electrode position by the International Electroencephalogram Society standard method (international 10/20 method) from the top. 国際脳波学会標準法(国際10/20法)による電極位置を正面から見た模式図である。It is the schematic diagram which looked at the electrode position by the International Electroencephalographic Society standard method (international 10/20 method) from the front. 本発明の生成ルール学習処理の全体構成を説明するための説明図である。It is explanatory drawing for demonstrating the whole structure of the production | generation rule learning process of this invention. 本発明のカオス特性を有する基礎情報からのサウンド生成ルール学習処理を説明するフローチャートである。It is a flowchart explaining the sound production | generation rule learning process from the basic information which has the chaos characteristic of this invention. 本発明のフラクタル特性を有する基礎情報からのサウンド生成ルール学習処理を説明するフローチャートである。It is a flowchart explaining the sound production | generation rule learning process from the basic information which has the fractal characteristic of this invention. サウンド傾聴時の生体から測定された心拍の変動を算出したグラフ(a)及びその心拍変動を例とした生体信号からの神経種別特性の解析結果のグラフ(b)である。It is the graph (a) which calculated the fluctuation | variation of the heartbeat measured from the biological body at the time of sound listening, and the graph (b) of the analysis result of the nerve classification characteristic from the biological signal which made the heartbeat fluctuation an example.

符号の説明Explanation of symbols

1;基礎情報変換部、101;情報測定装置、102;測定用コンピュータ、2;カオス特性空間生成手順、201;カオスアトラクタ算出部、202;切断面構成部、203;基準点設定部、3;サウンド生成手順、4;切断面学習、401;脳波測定部、402;周波数解析部、403;脳波評価部、404;切断面変更部、5;生成ルール学習、501;ユーザ入力部、502;変更部、503;サウンド変更部、6;フラクタル特性空間、7;スケーリング幅学習、701;脳波測定部、702;周波数解析部、703;脳波評価部、704;スケーリング幅変更部、A;基礎情報、B;サウンド生成ルール、C;サウンドファイル。   DESCRIPTION OF SYMBOLS 1; Basic information conversion part, 101; Information measuring apparatus, 102; Measurement computer, 2; Chaos characteristic space generation procedure, 201; Chaotic attractor calculation part, 202; Cut surface structure part, 203; Reference point setting part, 3; Sound generation procedure, 4; cutting plane learning, 401; electroencephalogram measurement section, 402; frequency analysis section, 403; electroencephalogram evaluation section, 404; cutting plane changing section, 5; generation rule learning, 501; user input section, 502; Part 503; sound change part 6; fractal characteristic space 7; scaling width learning 701; electroencephalogram measurement part 702; frequency analysis part 703; electroencephalogram evaluation part 704; scaling width change part A; basic information; B: Sound generation rule, C: Sound file.

Claims (19)

カオス性を有する基礎情報を数値演算可能なデータに変換する基礎情報変換手順と、
該基礎情報変換手順で変換したデータに基づいてカオスアトラクタを算出し、カオス特性空間を生成するカオス特性空間生成手順と、
該カオス特性空間生成手順で生成したカオス特性空間にあるデータから所定のサウンド生成ルールに従ってサウンドファイルを生成するサウンド生成手順と、を備えることを特徴とするサウンド生成方法。
Basic information conversion procedure for converting basic information having chaos into data that can be numerically calculated,
Calculating a chaos attractor based on the data converted in the basic information conversion procedure, and generating a chaos property space;
A sound generation method, comprising: a sound generation procedure for generating a sound file from data in the chaos characteristic space generated by the chaos characteristic space generation procedure according to a predetermined sound generation rule.
フラクタル性を有する基礎情報を数値演算可能なデータに変換する基礎情報変換手順と、
該基礎情報変換手順で変換したデータに基づいてフラクタル特徴を抽出することによりフラクタル特性空間を生成するフラクタル特性空間生成手順と、
該フラクタル特性空間生成手順で生成したフラクタル特性空間から所定のサウンド生成ルールに従ってサウンドファイルを生成するサウンド生成手順と、を備えることを特徴とするサウンド生成方法。
Basic information conversion procedure for converting basic information having fractal properties into numerically operable data,
A fractal characteristic space generation procedure for generating a fractal characteristic space by extracting a fractal characteristic based on the data converted by the basic information conversion procedure;
A sound generation method comprising: a sound generation procedure for generating a sound file from a fractal characteristic space generated by the fractal characteristic space generation procedure according to a predetermined sound generation rule.
情報提供者個人の時系列的な生成信号を数値演算可能なデータに変換する生体信号変換手順と、
該生体信号変換手順で変換したデータに基づいてカオスアトラクタを算出し、カオス特性空間を生成するカオス特性空間生成手順と、
該カオス特性空間生成手順で生成したカオス特性空間にあるデータから所定のサウンド生成ルールに従って、前記情報提供者に適応したサウンドファイルを生成するサウンド生成手順と、
を備えることを特徴とするサウンド生成方法。
A biological signal conversion procedure for converting an information provider's individual time-series generated signal into numerically operable data;
Calculating a chaos attractor based on the data converted in the biological signal conversion procedure, and generating a chaos property space;
A sound generation procedure for generating a sound file adapted to the information provider according to a predetermined sound generation rule from data in the chaos characteristic space generated by the chaos characteristic space generation procedure;
A sound generation method comprising:
情報提供者個人の時系列的な生成信号を数値演算可能なデータに変換する生体信号変換手順と、
該生体信号変換手順で変換したデータに基づいて自己相似特長を抽出することによりフラクタル特性空間を生成するフラクタル特性空間生成手順と、
該フラクタル特性空間生成手順で生成したフラクタル特性空間から所定のサウンド生成ルールに従って、前記情報提供者に適応したサウンドファイルを生成するサウンド生成手順と、を備えることを特徴とするサウンド生成方法。
A biological signal conversion procedure for converting an information provider's individual time-series generated signal into numerically operable data;
A fractal characteristic space generation procedure for generating a fractal characteristic space by extracting a self-similar feature based on the data converted by the biological signal conversion procedure;
A sound generation method comprising: a sound generation procedure for generating a sound file adapted to the information provider from a fractal characteristic space generated by the fractal characteristic space generation procedure according to a predetermined sound generation rule.
前記生体信号変換手順は、生体信号を測定する生体信号測定手順と、
該生体信号測定手順で測定された生体信号データを周波数帯域ごとの数値データとして計算する周波数解析手順と、
該周波数解析手順に基づいて前記情報提供者個人の生体における神経種別特性に対応するサウンド生成手順と、を備える請求項3記載のサウンド生成方法。
The biological signal conversion procedure includes a biological signal measurement procedure for measuring a biological signal;
A frequency analysis procedure for calculating the biological signal data measured in the biological signal measurement procedure as numerical data for each frequency band;
The sound generation method according to claim 3, further comprising: a sound generation procedure corresponding to a nerve type characteristic in the living body of the individual information provider based on the frequency analysis procedure.
前記生体信号変換手順は、生体信号を測定する生体信号測定手順と、
該生体信号測定手順で測定された生体信号データを周波数帯域ごとの数値データとして計算する周波数解析手順と、
該周波数解析手順に基づいて前記情報提供者個人の生体における神経種別特性に対応するサウンド生成手順と、を備える請求項4記載のサウンド生成方法。
The biological signal conversion procedure includes a biological signal measurement procedure for measuring a biological signal;
A frequency analysis procedure for calculating the biological signal data measured in the biological signal measurement procedure as numerical data for each frequency band;
The sound generation method according to claim 4, further comprising: a sound generation procedure corresponding to a nerve type characteristic in the living body of the individual information provider based on the frequency analysis procedure.
前記カオス特性空間生成手順は、前記周波数解析手順で計算された情報提供者個人の生体における神経種別特性の数値データを比較し、前記情報提供者の心身状態を評価する状態評価手順と、
該状態評価手順での評価に応じてカオスアトラクタを切断する平面を変更する切断面変更手順と、を備える請求項3記載のサウンド生成方法。
The chaos characteristic space generation procedure is a state evaluation procedure for comparing the numerical data of nerve type characteristics in the living body of the information provider individual calculated in the frequency analysis procedure, and evaluating the psychosomatic state of the information provider,
The sound generation method according to claim 3, further comprising: a cutting plane changing procedure for changing a plane for cutting the chaotic attractor according to the evaluation in the state evaluation procedure.
前記フラクタル特性空間生成手順は、前記周波数解析手順で計算された情報提供者個人の生体における神経種別特性の数値データを比較し、前記情報提供者の心身状態を評価する状態評価手順と、
該状態評価手順での評価に応じてフラクタル特徴を抽出するためのスケーリング幅を変更するスケーリング幅変更手順と、を備える請求項4記載のサウンド生成方法。
The fractal characteristic space generation procedure is a state evaluation procedure for comparing the numerical data of nerve type characteristics in the living body of the information provider individual calculated in the frequency analysis procedure, and evaluating the psychosomatic state of the information provider,
The sound generation method according to claim 4, further comprising a scaling width changing procedure for changing a scaling width for extracting a fractal feature in accordance with the evaluation in the state evaluation procedure.
前記サウンド生成手順は、前記生体信号の情報提供者と対話できるインターフェースを有し、サウンド生成に関する条件を入力可能とする条件入力手順と、該条件入力手順で入力された条件に従って、前記サウンド生成ルールを設定する生成ルール設定手順と、を含み、該生成ルール設定手順で設定された生成ルールに従って前記サウンドファイルを生成する請求項3記載のサウンド生成方法。   The sound generation procedure includes an interface capable of interacting with an information provider of the biological signal, a condition input procedure that allows a condition relating to sound generation to be input, and the sound generation rule according to the condition input in the condition input procedure A sound generation method according to claim 3, wherein the sound file is generated according to a generation rule set in the generation rule setting procedure. 前記サウンド生成手順は、前記生体信号の情報提供者と対話できるインターフェースを有し、サウンド生成に関する条件を入力可能とする条件入力手順と、該条件入力手順で入力された条件に従って、前記サウンド生成ルールを設定する生成ルール設定手順と、を含み、該生成ルール設定手順で設定された生成ルールに従って前記サウンドファイルを生成する請求項4記載のサウンド生成方法。   The sound generation procedure includes an interface capable of interacting with an information provider of the biological signal, a condition input procedure that allows a condition relating to sound generation to be input, and the sound generation rule according to the condition input in the condition input procedure The sound generation method according to claim 4, further comprising: a generation rule setting procedure for setting the sound file, wherein the sound file is generated according to the generation rule set in the generation rule setting procedure. 前記状態評価手順では、脳波のα波の出現割合によって心身状態を評価する請求項7記載のサウンド生成方法。   The sound generation method according to claim 7, wherein in the state evaluation procedure, the psychosomatic state is evaluated based on an appearance rate of an α wave of an electroencephalogram. 前記状態評価手順では、脳波のα波の出現割合によって心身状態を評価する請求項8記載のサウンド生成方法。   The sound generation method according to claim 8, wherein in the state evaluation procedure, a psychosomatic state is evaluated based on an appearance rate of an α wave of an electroencephalogram. 前記生体信号として脈波、心電、脳波、筋電及び呼吸の少なくとも1種を利用する請求項3乃至10のいずれか一項に記載のサウンド生成方法。   The sound generation method according to any one of claims 3 to 10, wherein at least one of a pulse wave, an electrocardiogram, an electroencephalogram, an electromyogram, and respiration is used as the biological signal. 請求項1乃至12のいずれか一項に記載のサウンド生成方法のうちの少なくとも1種をコンピュータにより実行させるためのプログラムが記録されたことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium having recorded thereon a program for causing a computer to execute at least one of the sound generation methods according to any one of claims 1 to 12. 請求項13に記載のサウンド生成方法をコンピュータにより実行させるためのプログラムが記録されたことを特徴とするコンピュータ読み取り可能な記憶媒体。   14. A computer-readable storage medium on which a program for causing a computer to execute the sound generation method according to claim 13 is recorded. 生体信号を測定する手段と、請求項1乃至12のいずれか一項に記載のサウンド生成方法のうちの少なくとも1種を実行するコンピュータと、該サウンド生成方法によって生成されたサウンドを再生する手段と、前記生体信号を提供し前記サウンドを傾聴する情報提供者個人の状態を測定する手段と、を備えることを特徴とするスタンドアロン型サウンド生成再生装置。   A means for measuring a biological signal, a computer for executing at least one of the sound generation methods according to any one of claims 1 to 12, and a means for reproducing the sound generated by the sound generation method A stand-alone sound generating / reproducing apparatus comprising: a means for measuring an individual of an information provider who provides the biological signal and listens to the sound. 生体信号を測定する手段と、請求項13に記載のサウンド生成方法を実行するコンピュータと、該サウンド生成方法によって生成されたサウンドを再生する手段と、前記生体信号を提供し前記サウンドを傾聴する情報提供者個人の状態を測定する手段と、を備えることを特徴とするスタンドアロン型サウンド生成再生装置。   14. A means for measuring a biological signal, a computer for executing the sound generation method according to claim 13, a means for reproducing the sound generated by the sound generation method, and information for providing the biological signal and listening to the sound A stand-alone type sound generating and reproducing apparatus comprising: means for measuring a provider's individual state. 請求項1乃至12のいずれか一項に記載のサウンド生成方法のうちの少なくとも1種を実行するサーバコンピュータと、該サウンド生成方法に必要な生体信号を測定する手段及びサウンドを再生する手段を具備するコンピュータネットワークで接続された遠隔地のコンピュータで実行する手段と、を備えることを特徴とするネットワーク配信型サウンド生成再生システム。   A server computer that executes at least one of the sound generation methods according to any one of claims 1 to 12, a means for measuring a biological signal necessary for the sound generation method, and a means for reproducing sound. And a means for executing on a remote computer connected by a computer network. 請求項13に記載のサウンド生成方法を実行するサーバコンピュータと、該サウンド生成方法に必要な生体信号を測定する手段及びサウンドを再生する手段を具備するコンピュータネットワークで接続された遠隔地のコンピュータで実行する手段と、を備えることを特徴とするネットワーク配信型サウンド生成再生システム。   A server computer for executing the sound generation method according to claim 13, and a remote computer connected by a computer network comprising means for measuring a biological signal necessary for the sound generation method and means for reproducing the sound. And a network distribution type sound generation / reproduction system.
JP2006189865A 2002-12-12 2006-07-10 Sound generation method, computer readable storage medium, stand-alone sound generation and playback device, and network communicative sound generation and playback system Pending JP2006346471A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006189865A JP2006346471A (en) 2002-12-12 2006-07-10 Sound generation method, computer readable storage medium, stand-alone sound generation and playback device, and network communicative sound generation and playback system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002383239 2002-12-12
JP2003205828 2003-08-04
JP2006189865A JP2006346471A (en) 2002-12-12 2006-07-10 Sound generation method, computer readable storage medium, stand-alone sound generation and playback device, and network communicative sound generation and playback system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005502491A Division JP3863553B2 (en) 2002-12-12 2003-12-12 SOUND GENERATION METHOD, COMPUTER-READABLE STORAGE MEDIUM, STANDARD SOUND GENERATION / REPRODUCTION DEVICE, AND NETWORK DISTRIBUTION SOUND GENERATION / REPRODUCTION SYSTEM

Publications (2)

Publication Number Publication Date
JP2006346471A true JP2006346471A (en) 2006-12-28
JP2006346471A5 JP2006346471A5 (en) 2007-03-15

Family

ID=37642876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006189865A Pending JP2006346471A (en) 2002-12-12 2006-07-10 Sound generation method, computer readable storage medium, stand-alone sound generation and playback device, and network communicative sound generation and playback system

Country Status (1)

Country Link
JP (1) JP2006346471A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008275845A (en) * 2007-04-27 2008-11-13 Casio Comput Co Ltd Waveform generating device and waveform generation processing program
JP2008292724A (en) * 2007-05-24 2008-12-04 Casio Comput Co Ltd Music arrangement device and music arrangement processing program
JP2010078743A (en) * 2008-09-25 2010-04-08 Casio Computer Co Ltd Waveform generation device and waveform generation processing program

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187049A (en) * 1992-12-15 1994-07-08 Hitachi Ltd Method and device for sound-proof and vibration-proof
JPH0751374A (en) * 1993-08-12 1995-02-28 Pioneer Electron Corp Body stimulation equipment
JPH09190181A (en) * 1996-01-08 1997-07-22 Nippon Telegr & Teleph Corp <Ntt> Method for generating and playing music
JPH09322943A (en) * 1996-06-06 1997-12-16 Matsushita Electric Ind Co Ltd Biological stimulator
JP2000317050A (en) * 1992-10-22 2000-11-21 Semiconductor Energy Lab Co Ltd Amusement arcade equipment
JP2002000577A (en) * 2000-06-23 2002-01-08 Canon Inc Method of analyzing brain wave
JP3248677B2 (en) * 1997-03-14 2002-01-21 株式会社半導体エネルギー研究所 Gaming machine
JP2002162968A (en) * 2000-11-28 2002-06-07 M Zone:Kk Automatic music forming method, automatic music forming program and recording medium recorded with automatic music forming program
JP2002531865A (en) * 1998-12-02 2002-09-24 スリーエム イノベイティブ プロパティズ カンパニー Illumination device and manufacturing method thereof
US6461316B1 (en) * 1997-11-21 2002-10-08 Richard H. Lee Chaos therapy method and device
JP2002304616A (en) * 2001-04-05 2002-10-18 Motosan Engineering Kk Music selection support method, program, and recording medium
JP2004513725A (en) * 2000-11-14 2004-05-13 ヴェーデクス・アクティーセルスカプ Binaural hearing aid system and music synthesis method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000317050A (en) * 1992-10-22 2000-11-21 Semiconductor Energy Lab Co Ltd Amusement arcade equipment
JPH06187049A (en) * 1992-12-15 1994-07-08 Hitachi Ltd Method and device for sound-proof and vibration-proof
JPH0751374A (en) * 1993-08-12 1995-02-28 Pioneer Electron Corp Body stimulation equipment
JPH09190181A (en) * 1996-01-08 1997-07-22 Nippon Telegr & Teleph Corp <Ntt> Method for generating and playing music
JPH09322943A (en) * 1996-06-06 1997-12-16 Matsushita Electric Ind Co Ltd Biological stimulator
JP3248677B2 (en) * 1997-03-14 2002-01-21 株式会社半導体エネルギー研究所 Gaming machine
US6461316B1 (en) * 1997-11-21 2002-10-08 Richard H. Lee Chaos therapy method and device
JP2002531865A (en) * 1998-12-02 2002-09-24 スリーエム イノベイティブ プロパティズ カンパニー Illumination device and manufacturing method thereof
JP2002000577A (en) * 2000-06-23 2002-01-08 Canon Inc Method of analyzing brain wave
JP2004513725A (en) * 2000-11-14 2004-05-13 ヴェーデクス・アクティーセルスカプ Binaural hearing aid system and music synthesis method
JP2002162968A (en) * 2000-11-28 2002-06-07 M Zone:Kk Automatic music forming method, automatic music forming program and recording medium recorded with automatic music forming program
JP2002304616A (en) * 2001-04-05 2002-10-18 Motosan Engineering Kk Music selection support method, program, and recording medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008275845A (en) * 2007-04-27 2008-11-13 Casio Comput Co Ltd Waveform generating device and waveform generation processing program
JP4656443B2 (en) * 2007-04-27 2011-03-23 カシオ計算機株式会社 Waveform generator and waveform generation processing program
JP2008292724A (en) * 2007-05-24 2008-12-04 Casio Comput Co Ltd Music arrangement device and music arrangement processing program
JP2010078743A (en) * 2008-09-25 2010-04-08 Casio Computer Co Ltd Waveform generation device and waveform generation processing program

Similar Documents

Publication Publication Date Title
CN100453036C (en) Music brain electricity analytical method
JP2571732B2 (en) A device that induces various human states of consciousness
US5730140A (en) Sonification system using synthesized realistic body sounds modified by other medically-important variables for physiological monitoring
TWI557563B (en) Emotion regulation system and regulation method thereof
Chuen et al. Psychophysiological responses to auditory change
Sanyal et al. Music of brain and music on brain: a novel EEG sonification approach
KR20170087834A (en) Computer system for determining a state of mind and providing a sensory-type antidote to a subject
CN105451801A (en) Sound-induced sleep method and a system therefor
US10636400B2 (en) Method for producing and streaming music generated from biofeedback
WO2001008125A1 (en) Brain development apparatus and method using brain wave biofeedback
JP2008508542A (en) Method and apparatus for nonlinear frequency analysis of structured signal
CN104688222A (en) EEG-based (electroencephalogram-based) tone synthesizer
CN115381413B (en) Self-adaptive bimodal emotion adjustment method and system
JP2008516701A (en) Physiological monitoring method and apparatus
Holmes et al. Laryngeal airway resistance of older men and women as a function of vocal sound pressure level
JP2009195260A (en) Living body mental/physical condition adjusting system and computer-readable recording medium
CN113171534B (en) Superposition enhancement nerve modulation method and device based on music and energy wave functions
JP2006346471A (en) Sound generation method, computer readable storage medium, stand-alone sound generation and playback device, and network communicative sound generation and playback system
JP3863553B2 (en) SOUND GENERATION METHOD, COMPUTER-READABLE STORAGE MEDIUM, STANDARD SOUND GENERATION / REPRODUCTION DEVICE, AND NETWORK DISTRIBUTION SOUND GENERATION / REPRODUCTION SYSTEM
JP3965299B2 (en) Mind and body adjustment device and computer-readable recording medium
JP2003210587A (en) Sleep-inducing system, sleep-inducting method, psychological physiological effect-imparting-supporting device, psychological physiological effect-imparting- device, psychological physiological effect-imparting method, psychological physiological effect-imparting system, program to make computer perform the method, and computer-readable recording medium on which program to make computer perform the method is recorded
EP0432152B1 (en) Apparatus for translating the eeg into music
CN1703255A (en) Sound generation method, computer-readable storage medium, stand-alone type sound generation/reproduction device, and network distribution type sound generation/reproduction system
Kanaga et al. A Pilot Investigation on the Performance of Auditory Stimuli based on EEG Signals Classification for BCI Applications
Wu et al. Scale-free brain ensemble modulated by phase synchronization

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100601