JP2006235201A - Method and device for constituting musical sound contents, and program and recording medium therefor - Google Patents

Method and device for constituting musical sound contents, and program and recording medium therefor Download PDF

Info

Publication number
JP2006235201A
JP2006235201A JP2005049051A JP2005049051A JP2006235201A JP 2006235201 A JP2006235201 A JP 2006235201A JP 2005049051 A JP2005049051 A JP 2005049051A JP 2005049051 A JP2005049051 A JP 2005049051A JP 2006235201 A JP2006235201 A JP 2006235201A
Authority
JP
Japan
Prior art keywords
musical sound
sound source
unit
parameter
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005049051A
Other languages
Japanese (ja)
Inventor
Yumi Tomioka
由実 富岡
Nobuhiko Matsuura
宣彦 松浦
Hisashi Ibaraki
久 茨木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005049051A priority Critical patent/JP2006235201A/en
Publication of JP2006235201A publication Critical patent/JP2006235201A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method enabling constituting musical sound contents automatically or from only simple inputs even without professional musical knowledge. <P>SOLUTION: The method is constituted of: capturing environmental information of a field providing musical sound contents by measuring the environmental information about people, climate, and time; extracting a parameter for adjusting musical sources from this environmental information; and controlling combinational adjustment of the musical sound sources by this parameter. The method also enables producing a parameter by inputting an adjective and an adjective word made corresponding to this parameter. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、多数のメロディ素片その他音響素材である楽音ソースを組み合わせ調整し、周囲の環境に適した楽音コンテンツを容易に構成する方法とその装置及び楽音コンテンツ構成プログラムとその記録媒体に関する。   The present invention relates to a method and apparatus for easily configuring a musical sound content suitable for the surrounding environment, a musical sound content composition program, and a recording medium thereof by combining and adjusting musical sound sources that are a large number of melody segments and other acoustic materials.

今日、さまざまな情報端末には多様な楽音コンテンツがマルチメディアコンテンツとして配信され、これら情報端末の各ユーザにおいて使用されている。特に、パソコンによりWeb上にこれら楽音コンテンツをアップロードし、上記マルチメディアコンテンツのプロモーション等が行われている。なお、ここで、楽音コンテンツとしては音声情報も含むものとする。   Today, various musical sound contents are distributed to various information terminals as multimedia contents and are used by users of these information terminals. In particular, these musical sound contents are uploaded on the Web by a personal computer, and the multimedia contents are promoted. Here, the musical sound content includes audio information.

一般に、メロディ素片、音素、楽曲素片等の楽音ソースを楽音コンテンツの構成要素として使用する際、ユーザに対しては音楽の知識や、楽器・編集機器等の操作技術が必要とされ、その上さらに、音楽的センス等も要求されてくるため、例えば「落ち着いた感じの楽曲を作りたい」と思っても、所望の楽音コンテンツを構成することは一般ユーザにとっては非常に困難な作業であった。   In general, when using musical sound sources such as melody segments, phonemes, and musical composition segments as components of musical content, music knowledge and operation techniques for musical instruments and editing equipment are required for users. Furthermore, since a musical sense is also required, for example, even if you want to create a calm music, it is very difficult for general users to compose the desired musical content. It was.

このため、従来の方法では、単にメロディの組み合わせのみではなく、セッションとして複数の演奏者がいる場合に一つ一つの音素(楽音ソース)を並べ替えることによって楽音コンテンツ(すなわち音楽)を構成したり、ユーザの感情に関する音声信号あるいは楽音信号の特徴量が予め設定されている基準値からのズレを求めてユーザの感情を適切に判断する装置(特許文献1「感情認識装置」)、音声信号等から拍(テンポ)の情報を拍の揺らぎの情報と共に詳細に検出し、これによりユーザの拍の揺らぎも含めてMIDIシーケンサとの同期を正しく行う装置(特許文献2「拍検出装置及びそれを用いた同期制御装置」)、オーディオ情報を提供する空間の目的、あるいはその空間が創り出すイメージに適応した音楽を選曲し提供する装置(特許文献3「オーディオ情報提供システム」)、音楽セッションのように即興的な性質上、客観的な情報のみならず、感性的要素を有する主観的な感情の情報等も加味して音楽を構成する装置及びシステム(特許文献4「音楽セッション装置及びシステム」)等が開示されている。   For this reason, in the conventional method, musical content (that is, music) is formed by rearranging individual phonemes (musical sound sources) when there are a plurality of performers as a session, not just a combination of melodies. A device that appropriately determines a user's emotion by obtaining a deviation from a preset reference value of a feature value of a voice signal or a musical sound signal related to the user's emotion (Patent Document 1, “Emotion Recognition Device”), a voice signal, and the like To detect the beat (tempo) information together with the beat fluctuation information in detail, and thereby correctly synchronize with the MIDI sequencer including the fluctuation of the user's beat (Patent Document 2 “Beat detection apparatus and its use Sync control device ”), the purpose of the space to provide audio information, or music adapted to the image created by that space (Patent Document 3 “Audio Information Providing System”), improvised nature like a music session, not only objective information but also subjective emotional information with emotional elements, etc. An apparatus and a system (Patent Document 4, “Music session apparatus and system”) and the like are disclosed.

これらの他、人、騒音、明るさ、気候等の環境情報を用いて楽音信号を制御するものとして、楽音情報を提供する場所の環境条件に応じて発生する楽音データの音量、テンポ、音色、曲目等を制御し設定する装置(特許文献5「音響発生装置」)、あるいは自然光が照射されない部屋において、提供する音楽の選曲及び音質の変化から建物外の環境の変化が判るようにした装置(特許文献6「音楽演奏変更装置」)等、環境条件あるいは人為的要件により提供する音楽を制御する装置あるいは方法について各種開示されている。
さらに、音声信号の基本周波数、パワー、動的特徴量の時間的変化特性等の何れか、またはこれらのフレーム間差分の少なくとも何れかを含む音声特徴量を用いて入力音声が強調状態にあるか平静状態にあるかを求め、この結果から話者に依存しない発話状態判定を行う音声処理方法についての開示もなされている。(特許文献7「音声処理方法及びその方法を使用した装置及びそのプログラム」)
特開平5−12023号公報 特開平5−006172号公報 特開2002−333892号広報 特開平8−69283号公報 特許番号第2972431号 実開平5−27794号公報 特開2003−316378号広報
In addition to these, as to control the musical sound signal using environmental information such as people, noise, brightness, climate, etc., the volume, tempo, timbre, tone data of the musical sound data generated according to the environmental conditions of the place providing the musical sound information, A device for controlling and setting music numbers (Patent Document 5 “Sound generator”), or a device in which changes in the environment outside the building can be determined from the selection of music to be provided and changes in sound quality in a room not exposed to natural light ( Various devices or methods for controlling music provided according to environmental conditions or human requirements are disclosed, such as Patent Document 6 “Music performance changing device”).
Further, whether the input speech is in an emphasized state using a speech feature amount including any one of the fundamental frequency, power, dynamic feature amount temporal change characteristic of the speech signal, or at least one of these inter-frame differences. There is also disclosed a speech processing method for determining whether the user is in a calm state and determining the speech state independent of the speaker from the result. (Patent Document 7 “Voice processing method, apparatus using the method, and program thereof”)
Japanese Patent Laid-Open No. 5-12023 Japanese Patent Laid-Open No. 5-006172 JP 2002-333892 A JP-A-8-69283 Patent No. 2972431 Japanese Utility Model Publication No. 5-27794 JP 2003-316378 A

以上述べたように従来の技術では、楽器やコンピュータ等のスキルのある人にしか楽音コンテンツを構成することができず、楽音コンテンツを容易に構成したいという一般ユーザのニーズに応えることが困難であると言った問題があった。一般ユーザが、自分が思うような楽曲を容易に構成することができるようにするために、例えば、一般ユーザの感性が要求する曲想を簡単なキーワードを入力することによって自動的あるいは容易に音楽コンテンツを構成したり、変更したりすることが可能であるような楽音コンテンツ作成支援ツールは現在に至るまで実現されていなかった。   As described above, with the conventional technology, musical content can be configured only by people with skills such as musical instruments and computers, and it is difficult to meet the needs of general users who want to easily configure musical content. There was a problem that said. In order to make it easy for general users to compose the music they want, for example, music content automatically or easily by inputting simple keywords for the music required by general users' sensibilities. Until now, no musical sound content creation support tool that can configure or change the content has been realized.

このような楽音コンテンツ作成支援ツールを実現するためには、楽音コンテンツを提供する場所および騒音、居合わせる人、気候条件、時刻等の環境情報を勘案し、ユーザの好みも含めて楽音コンテンツ構成のためのパラメータ設定を行ったり、さらにはユーザの感性を反映するための各種情報と設定パラメータに応じて抽出された複数の楽音ソースをミキシングして組み替え処理を行うことにより楽音コンテンツを作成する等の技術が要求される。
本発明は、このような専門的な技術を使用することなく、楽音ソース選択の各種パラメータを用いてユーザが意図する楽音コンテンツを容易に作成可能とする方法、装置及び楽音コンテンツ作成プログラムと記録媒体の提供を目的としている。
In order to realize such a musical sound content creation support tool, it is necessary to configure the musical sound content including the user's preferences, taking into account the environmental information such as the location and noise that provides the musical sound content, people who are present, climatic conditions, time, etc. Such as creating a musical sound content by mixing various musical sound sources extracted according to various information and setting parameters to reflect the user's sensibility and recombination processing Is required.
The present invention provides a method, an apparatus, a musical sound content creation program, and a recording medium that can easily create musical content intended by a user using various parameters for selecting a musical sound source without using such specialized techniques. The purpose is to provide.

上記目的を達成するために、請求項1においては、楽音ソース読み取り手段から読み取り、該読み取られた楽音ソースをボリューム・イコライザ手段により調整し、楽音コンテンツとして音源出力手段により出力する楽音コンテンツ構成方法において、前記楽音コンテンツを提供する場所周辺の環境状態の情報を環境情報取得手段により計測し、前記環境情報取得手段において計測した環境情報を基に、前記ボリューム・イコライザ手段の動作を制御するための1つまたは複数のパラメータをパラメータ抽出手段において抽出し、また、パラメータ設定手段では、外部から入力されたパラメータ生成情報を第1の入力手段を介して取り込み、該入力されたパラメータ生成情報を第1のデータ変換手段を介してデータ形式に変換した後、前記パラメータを生成し、前記生成されたパラメータは前記パラメータ抽出手段に送出され、前記パラメータ抽出手段の出力に応じてパラメータ制御手段が前記ボリューム・イコライザ手段のパラメータを制御することにより前記楽音コンテンツを構成する楽音コンテンツ構成方法について規定している。   In order to achieve the above object, according to claim 1, there is provided a musical sound content composition method of reading from a musical sound source reading means, adjusting the read musical sound source by a volume equalizer means, and outputting as a musical sound content by a sound source output means. 1 for measuring the environmental state information around the place where the musical sound content is provided by the environmental information acquisition means and controlling the operation of the volume equalizer means based on the environmental information measured by the environmental information acquisition means One or a plurality of parameters are extracted by the parameter extracting means, and the parameter setting means takes in parameter generation information input from the outside via the first input means, and the input parameter generation information is read in the first After conversion to the data format through the data conversion means, A meter is generated, and the generated parameters are sent to the parameter extraction means, and the tone content is constituted by the parameter control means controlling the parameters of the volume equalizer means according to the output of the parameter extraction means. It defines the music content composition method.

請求項2においては、請求項1に記載の楽音コンテンツ構成方法において、前記パラメータ設定手段において、前記楽音コンテンツの態様を示す形容詞または形容語を前記第1のデータ変換手段によりデータに変換して前記パラメータ抽出手段に入力する楽音コンテンツ構成方法について規定している。   According to a second aspect of the present invention, in the musical sound content composition method according to the first aspect, in the parameter setting means, an adjective or an adjective indicating an aspect of the musical sound content is converted into data by the first data conversion means, and It defines the composition method of musical sound contents to be input to the parameter extracting means.

請求項3においては、楽音ソース読み取り手段から読み取り、音源出力手段により楽音コンテンツを出力する楽音コンテンツ構成方法において、前記楽音コンテンツを提供する場所周辺の環境状態の情報を環境情報取得手段で計測し、前記環境情報取得手段の計測結果で得られた情報を基に前記楽音ソースを少なくとも1つ以上楽音ソース選択手段において選択し、前記楽音ソース選択手段で選択された楽音ソースをミキシング手段でミキシングして多様な楽音ソースから楽音コンテンツを構成する楽音コンテンツ構成方法について規定している。   According to a third aspect of the present invention, in the musical sound content composition method for reading the musical sound source from the musical sound source reading means and outputting the musical sound content by the sound source output means, the environmental information acquisition means measures the environmental state information around the place where the musical sound content is provided, Based on the information obtained from the measurement result of the environmental information acquisition means, at least one musical sound source is selected by the musical sound source selection means, and the musical sound source selected by the musical sound source selection means is mixed by the mixing means. It stipulates a music content composition method that composes music content from various music sound sources.

請求項4においては、請求項3に記載の楽音コンテンツ構成方法において、前記楽音ソース選択手段は楽音ソース選択方法を入力するための第2の入力手段を有し、該入力手段に入力する該楽音ソース選択方法は前記楽音コンテンツの態様を示す形容詞または形容語をデータ形式に変換する第2のデータ変換手段を介して入力する楽音コンテンツ構成方法について規定している。   4. The musical sound content composition method according to claim 3, wherein the musical sound source selection means includes second input means for inputting a musical sound source selection method, and the musical sound input to the input means. The source selection method stipulates a musical sound content composition method that is input via a second data conversion means for converting an adjective or an adjective indicating the musical sound content into a data format.

請求項5においては、楽音ソース読み取り手段から読み取り、該読み取られた楽音ソースをボリューム・イコライザ手段により調整し、楽音コンテンツとして音源出力手段により出力する楽音コンテンツ構成方法において、前記音源出力手段からの出力を提供する場所周辺の環境状態を環境情報取得手段により計測し、前記楽音ソース読み取り手段からの楽音ソースに対して前記環境情報取得手段により計測された結果を参照して楽音ソース選択手段において前記楽音ソースを選択し、前記環境情報取得手段の出力と、前記楽音ソース選択手段の出力と、で前記ボリューム・イコライザの動作を制御するためのパラメータをパラメータ抽出手段で抽出し、また、前記パラメータはパラメータ設定手段においても生成することが出来、該パラメータ設定手段の出力は前記パラメータ抽出手段に送出された後、前記パラメータ抽出手段出力としてパラメータ制御手段に送出され、前記パラメータ制御手段出力で前記ボリューム・イコライザ手段のパラメータを制御し、前記ボリューム・イコライザ手段の出力と前記楽音ソース選択手段の出力とをミキシング手段でミキシングした後に前記音源出力部に送出することにより、多様な楽音ソースから楽音コンテンツを構成する楽音コンテンツ構成方法について規定している。   6. The musical sound content composition method according to claim 5, wherein the musical sound source reading means reads the musical sound source, adjusts the read musical sound source by the volume equalizer means, and outputs the musical sound content by the sound source output means. The musical sound source selecting means refers to the result measured by the environmental information acquisition means with respect to the musical sound source from the musical sound source reading means. A source is selected, and a parameter for controlling the operation of the volume equalizer is extracted by a parameter extraction unit based on the output of the environment information acquisition unit and the output of the musical sound source selection unit, and the parameter is a parameter It can also be generated by the setting means, and the parameter The output of the data setting means is sent to the parameter extraction means, and then sent to the parameter control means as the output of the parameter extraction means. The parameter of the volume equalizer means is controlled by the output of the parameter control means, and the volume equalizer A music content composition method is defined in which musical content is configured from various musical sound sources by mixing the output of the means and the output of the musical sound source selection means by the mixing means and then sending them to the sound source output section.

請求項6においては、請求項5記載の楽音コンテンツ構成方法において、前記パラメータ設定手段は、第3の入力手段を介して入力されたパラメータ生成情報を第3のデータ変換手段でデータ形式に変換し、また、前記楽音ソース選択手段は、入力された楽音ソース選択方法を入力するための第4の入力手段を有し、該入力手段に入力する該楽音ソース選択方法は前記楽音コンテンツの態様を示す形容詞または形容語をデータに第3のデータ変換手段を介して入力する楽音コンテンツ構成方法について規定している。   According to a sixth aspect of the present invention, in the musical sound content composition method according to the fifth aspect, the parameter setting means converts the parameter generation information input via the third input means into a data format by the third data conversion means. The musical sound source selection means has fourth input means for inputting the inputted musical sound source selection method, and the musical sound source selection method inputted to the input means shows an aspect of the musical sound content. It defines a musical sound content composition method in which an adjective or an adjective is input to data via third data conversion means.

請求項7においては、楽音ソース読み取り部から読み取り、該読み取られた楽音ソースをボリューム・イコライザ部により調整し、楽音コンテンツとして音源出力手段により出力する楽音コンテンツ構成装置において、前記音源出力部の出力を提供する場所周辺の環境状態から前記環境情報を取得するため環境状態の計測を行う環境情報取得部と、前記環境状態取得部で計測された環境情報を基に前記ボリューム・イコライザ部の動作を制御するパラメータを抽出するパラメータ抽出部と、前記抽出されたパラメータで前記ボリューム・イコライザ部に設定されている前記パラメータを制御するためのパラメータ制御部と、前記環境情報及び外部データ発生手段からのデータ入力手段を有するパラメータ設定部と、を有する楽音コンテンツ構成装置について規定している。   According to a seventh aspect of the present invention, there is provided a musical sound content composing apparatus that reads the musical sound source from the musical sound source reading unit, adjusts the read musical sound source by the volume equalizer unit, and outputs the musical sound content by the sound source output means. An environment information acquisition unit that measures the environmental state in order to acquire the environmental information from the environmental state around the location to be provided, and controls the operation of the volume equalizer unit based on the environmental information measured by the environmental state acquisition unit A parameter extraction unit for extracting parameters to be performed, a parameter control unit for controlling the parameters set in the volume equalizer unit with the extracted parameters, and data input from the environment information and external data generation means A musical sound content structure having a parameter setting unit having means It is defined for the system.

請求項8においては、請求項7に記載の楽音コンテンツ構成装置において、前記パラメータ設定は、前記楽音ソース選択のために楽音コンテンツの態様を示す形容詞または形容語をデータ形式に変換するデータ変換手段を介して入力する入力手段を有している楽音コンテンツ構成装置について規定している。   According to claim 8, in the musical sound content composition device according to claim 7, the parameter setting includes data conversion means for converting an adjective or an adjective indicating an aspect of the musical sound content into a data format for the musical sound source selection. A musical sound content constituting apparatus having an input means for inputting via a voice is defined.

請求項9においては、楽音ソース読み取部から読み取り、音源出力部から楽音コンテンツを出力する楽音コンテンツ構成装置において、前記楽音コンテンツを提供する場所周辺の環境状態を計測する環境情報取得部と、前記環境情報取得部の計測結果で得られた情報を基に前記楽音ソースの選択方法を設定する楽音ソース選択部と、前記楽音ソース選択部からの情報により前記楽音ソースをミキシングし、該ミキシング結果の信号を前記音源出力部に送出するミキシング部と、を有する楽音コンテンツ構成装置について規定している。   11. The music information composition device that reads from the music source reading unit and outputs the music content from the sound source output unit according to claim 9, an environment information acquisition unit that measures an environmental state around a place where the music content is provided, and the environment A tone source selection unit that sets a selection method of the tone source based on information obtained from the measurement result of the information acquisition unit, and the tone source is mixed with information from the tone source selection unit, and a signal of the mixing result Is defined as a musical sound content composing device having a mixing unit for sending the sound to the sound source output unit.

請求項10においては、楽音ソース読み取り部から読み取り、該読み取られ取られた楽音ソースをボリューム・イコライザ部により調整し、該調整された楽音ソースを楽音コンテンツとして音源出力部により出力する楽音コンテンツ構成装置において、前記音源出力部からの出力を提供する場所周辺の環境状態を計測する環境情報取得部と、前記環境情報取得部の情報を基に前記楽音ソースを選択する楽音ソース選択部と、前記環境情報取得部による計測結果の情報を基に楽音ソース選択方法及び調整方法を設定するためのパラメータを抽出するパラメータ抽出部と、前記抽出されたパラメータの情報により前記ボリューム・イコライザ部に設定されているパラメータを制御するパラメータ制御部と、前記環境情報及び外部データ発生手段からのデータの入力手段を有し、該環境情報および該入力手段からのデータによりパラメータを設定することが出来るパラメータ設定部と、
前記楽音ソース選択部からの情報により前記読み取られた楽音ソースをミキシングし、前記音源出力部に送出するミキシング部と、を有する楽音コンテンツ構成装置について規定している。
11. The musical sound content composition apparatus according to claim 10, wherein the musical sound source reading unit reads the musical sound source, adjusts the read musical sound source by a volume equalizer unit, and outputs the adjusted musical sound source as musical sound content by a sound source output unit. An environment information acquisition unit that measures an environmental condition around a place that provides an output from the sound source output unit, a music source selection unit that selects the music source based on information of the environment information acquisition unit, and the environment A parameter extraction unit that extracts parameters for setting a musical sound source selection method and an adjustment method based on information of a measurement result by the information acquisition unit, and a volume equalizer unit that is set by the extracted parameter information A parameter control unit for controlling parameters, and the environmental information and external data generation means Has an input means of the data, and the parameter setting unit capable of setting a parameter by the data from the environmental information and the input means,
A musical content composition apparatus is provided that includes a mixing unit that mixes the read musical sound source according to information from the musical sound source selection unit and sends the mixed musical source to the sound source output unit.

請求項11においては、請求項1乃至請求項6に記載の楽音コンテンツ構成方法をコンピュータを用いて実現する為のプログラムであって、コンピュータに前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツを構成する処理を実行させるための楽音コンテンツ構成プログラムについて規定している。   In Claim 11, it is a program for implement | achieving the musical sound content structure method of Claim 1 thru | or 6 using a computer, Comprising: Based on this parameter, the said parameter is extracted by the said environment information to a computer. In addition, a musical sound content composition program is defined for executing a process of composing musical sound content by converting data of either an adjective or an adjective associated with the parameter into a data format by a data conversion means.

請求項12においては、請求項11に記載のプログラムであって、前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツの構成を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体について規定している。   A twelfth aspect of the present invention is the program according to the eleventh aspect, wherein the parameter is extracted based on the environment information, and data of either an adjective or an adjective associated with the parameter is used as data. It defines a computer-readable recording medium on which a program for executing the composition of musical sound content is converted by a conversion means into a data format.

請求項13においては、請求項1乃至請求項6の何れかに記載の楽音コンテンツ構成方法において、前記環境情報取得手段が存在しない場合は、乱数発生器により乱数値を発生し、該乱数値を仮の環境情報の値とし、前記乱数値と予め設定されている閾値との大小関係を楽音ソース選択判定処理において比較し、前記乱数値が前記閾値に対して予め定められた範囲内に収斂するまで、前記乱数値発生から前記楽音ソース選択判定処理までの一連の処理を繰り返す楽音コンテンツ構成方法について規定している。   According to a thirteenth aspect of the present invention, in the musical sound content composition method according to any one of the first to sixth aspects, when the environment information acquisition means does not exist, a random number value is generated by a random number generator, and the random number value is obtained. As a value of temporary environment information, the magnitude relationship between the random number value and a preset threshold value is compared in a musical sound source selection determination process, and the random value value converges within a predetermined range with respect to the threshold value. Up to this point, a music content composition method that repeats a series of processes from the generation of the random value to the music source selection determination process has been defined.

前記本発明による楽音コンテンツ構成方法では、楽音コンテンツを提供する場所周辺の環境状態を考慮したパラメータを、環境状態を測定することにより自動的に生成することを可能にしており、このパラメータを用いて多様な楽音ソースから予め設定されている選択方法を基に選択して組み合わせるため、特別な音楽的スキルがなくとも目的とする楽音コンテンツの構成を容易なものにしている。   In the musical sound content composition method according to the present invention, it is possible to automatically generate a parameter in consideration of the environmental condition around the place where the musical sound content is provided by measuring the environmental condition. Since a selection is made from various musical sound sources based on a selection method set in advance, the structure of the target musical sound content is facilitated even without special musical skills.

さらに上記パラメータの選択に際して、予め設定されている選択方法に含まれない楽音ソースが必要となった場合においても、各種選択方法に対応付けられている形容詞または形容語の入力を可能としているため、ユーザはこれら用語を入力するのみで、より容易に、より的確に意図する楽音コンテンツを構成することが出来る。また、読み出された多種多様な楽音ソースを周辺の環境状態に応じてミキシング処理を行うことにより組み替える方法とすることで新たな効果を有する楽音コンテンツを構成することを可能としている。   Furthermore, when selecting a parameter, even if a musical sound source that is not included in the preset selection method is required, it is possible to input adjectives or adjectives associated with various selection methods. The user can configure the intended musical sound content more easily and more accurately by only inputting these terms. In addition, it is possible to configure a musical sound content having a new effect by using a method of rearranging various read musical sound sources by performing a mixing process according to the surrounding environmental conditions.

(実施の形態1)
図1に本発明による楽音コンテンツ構成装置の第1の実施の形態であるブロック図を示す。図1において、楽音ソース読み取り部11は予め各種多様な楽音ソースが登録されているファイル装置である。この読み込まれている多種多様な楽音ソースの中から、適宜読み取り、さらにボリューム・イコライザ部12により、読み取られたそれぞれの楽音ソースの信号レベル、及び全体の信号レベルの何れかまたは両方の信号レベルが調整される。これにより提供すべき音源としての楽音コンテンツが構成され、音源出力部13を介して出力される。
(Embodiment 1)
FIG. 1 is a block diagram showing a first embodiment of a musical sound content constituting apparatus according to the present invention. In FIG. 1, a musical tone source reading unit 11 is a file device in which various musical tone sources are registered in advance. From among the various musical sound sources that have been read in, they are read as appropriate, and further, the volume equalizer unit 12 reads the signal level of each musical sound source read and / or the signal level of one or both of the overall signal levels. Adjusted. As a result, musical sound content as a sound source to be provided is constructed and output via the sound source output unit 13.

ここで、図1における、楽音ソース読み取り部11、ボリューム・イコライザ部12および音源出力部13で構成された楽音コンテンツ選択調整出力部10は従来公知の構成である。本発明においては、環境情報取得部14により計測された環境条件に応じてボリュームイコライザ部12の動作を設定するパラメータ(パラメータの内容については後述する。)をパラメータ抽出部15で抽出した後、パラメータ制御部16によりボリューム・イコライザ部12のパラメータを制御し、このようにして楽音コンテンツ選択調整出力部10の動作を制御することにより楽音コンテンツ(音源)として出力することを特徴としている。   Here, the musical sound content selection adjustment output unit 10 including the musical sound source reading unit 11, the volume equalizer unit 12, and the sound source output unit 13 in FIG. 1 has a conventionally known configuration. In the present invention, after the parameter extraction unit 15 extracts parameters for setting the operation of the volume equalizer unit 12 according to the environmental conditions measured by the environment information acquisition unit 14 (the contents of the parameters will be described later), the parameters are extracted. The parameters of the volume equalizer unit 12 are controlled by the control unit 16, and the operation of the musical sound content selection adjustment output unit 10 is controlled in this way, thereby outputting as musical content (sound source).

ここで、パラメータ設定部17は、パラメータ抽出部15出力に含まれない新しいパラメータを生成する入力手段を有しており、使用者の操作により入力された外部からの信号を図示しないがデータ変換部でデータ形式に変換してパラメータの設定を可能にしている。パラメータ設定部17においては、環境情報取得部14からの情報および楽音ソース読み取り部11からの楽音ソース信号等を参照しながら設定するため、楽音ソース読み取り部11とパラメータ設定部17、環境情報取得部14とパラメータ設定部17とはそれぞれ対話的に動作するように構成されている。なお、楽音ソース読み取り部に楽音ソースを追加する際は、パラメータ設定部17の例えばキーボードを使用者が操作する等の入力手段を介して入力処理が行われる。これにより、環境の変化に応じて自由に楽音コンテンツに変化を与えることが出来、新たな楽音コンテンツとして出力することを可能にしている。なお、楽音ソース読み取り部11に楽音ソースを追加する際はパラメータ設定部17の入力手段を介して行われる。   Here, the parameter setting unit 17 has an input means for generating a new parameter not included in the output of the parameter extraction unit 15, and an external signal input by the user's operation is not shown, but is a data conversion unit It is possible to set parameters by converting to data format. In the parameter setting unit 17, the tone source reading unit 11, the parameter setting unit 17, and the environment information acquisition unit are set with reference to the information from the environment information acquisition unit 14 and the tone source signal from the tone source reading unit 11. 14 and the parameter setting unit 17 are configured to operate interactively. Note that when a musical sound source is added to the musical sound source reading unit, an input process is performed via an input unit such as a user operating a keyboard of the parameter setting unit 17. As a result, it is possible to freely change the musical sound content according to the change of the environment, and to output it as a new musical sound content. Note that the addition of a musical sound source to the musical sound source reading unit 11 is performed via the input unit of the parameter setting unit 17.

この構成により、多種多様な楽音ソースを周辺の環境状態に適応した形に成形し、新たな楽音コンテンツとして出力する。なお、上記の環境条件とは、楽音コンテンツが提供される空間(場所)周辺における人数、人の動き、騒音レベル、気候条件、時刻等の環境状態を指す。   With this configuration, a wide variety of musical sound sources are formed into a shape adapted to the surrounding environmental conditions and output as new musical sound contents. The environmental conditions mentioned above refer to environmental conditions such as the number of people, the movement of people, the noise level, the climatic conditions, and the time around the space (place) where the musical sound content is provided.

上記環境状態の具体的な例として、例えば、環境情報取得部14にカメラを用いた場合、その出力である画像信号に対して認識処理を行うことにより、その場にいる楽音コンテンツ提供の対象となる通行者の人数及びそれらの動きに関する情報を取得することが出来る。その他、カメラ以外に、例えば環境情報取得部14にIDタグのリーダ(読取装置)、赤外線読取装置、BLUETOOTH等を用いることにより、楽音コンテンツ提供場所周辺に存在する人や物の数量あるいは動きを把握したり、さらにはこれらの人が携行しているIDタグ等に記録されている個人情報あるいは個人に関する趣味嗜好等の属性情報を取得することも可能となる。   As a specific example of the environmental state, for example, when a camera is used for the environmental information acquisition unit 14, a recognition process is performed on an image signal that is an output of the environment information acquisition unit 14. Information about the number of passersby and their movements can be obtained. In addition to the camera, for example, by using an ID tag reader (reading device), an infrared reading device, BLUETOOTH, or the like for the environment information acquisition unit 14, the number or movement of people or objects existing in the vicinity of the music content provision location can be grasped It is also possible to acquire personal information recorded on ID tags carried by these persons or attribute information such as hobbies and preferences related to individuals.

また、環境情報取得部14は、上記のように人に関する情報を取得するだけでなく、時刻を取得する時計や、気象情報を取得するための温度計、湿度計、あるいは、ネットワーク上の天気予報など、さまざまなメディアからその場の状況の情報を取得する手段を備えることも可能である。これらの構成により、複数の環境情報を取得する手段から多様で、かつ、より的確なその場の状態を把握し、複数の楽音ソースから新たな楽音コンテンツを構成することを可能にする。   The environment information acquisition unit 14 not only acquires information about a person as described above, but also a clock for acquiring time, a thermometer for acquiring weather information, a hygrometer, or a weather forecast on a network. It is also possible to provide means for acquiring information on the current situation from various media. With these configurations, it is possible to grasp various and more accurate on-the-spot conditions from means for acquiring a plurality of environment information, and to construct new musical sound contents from a plurality of musical sound sources.

このような構成とすることにより、例えば、環境情報取得部14が取得した情報から設定されるパラメータをパラメータ抽出部15で抽出し、このパラメータを用いてパラメータ制御部16を介してボリューム・イコライザ部12のパラメータを制御する。ボリューム・イコライザ部12においては最終的に提供する楽音コンテンツのボリュームを最適化させたり、あるいは楽音ソース読み取り部11から読み取られた楽音ソースそれぞれの間の信号レベルのバランスを調整することにより楽音コンテンツの音色や音質を変化させたり、さらには、楽音コンテンツにエコー等のエフェクトをかける処理を施して楽音コンテンツを提供する場(空間)の状況にあわせたものとし、音源出力部13を介して出力される。   With such a configuration, for example, a parameter set from the information acquired by the environment information acquisition unit 14 is extracted by the parameter extraction unit 15, and the volume equalizer unit is transmitted via the parameter control unit 16 using this parameter. 12 parameters are controlled. The volume equalizer unit 12 optimizes the volume of the musical sound content to be finally provided, or adjusts the balance of signal levels between the musical sound sources read from the musical sound source reading unit 11 to The sound quality and sound quality are changed, and further, processing such as echo processing is applied to the musical sound content to suit the situation of the place (space) where the musical sound content is provided, and is output via the sound source output unit 13 The

ここで、パラメータ抽出部15においては、環境情報取得部14で収集されるか、あるいはパラメータ設定部17で設定されるパラメータ決定要因となる情報を用いて、予め定められた関係式(後述の数1式または数2乃至数4式)により各種パラメータを算出する演算が行われる。これにより得られるパラメータを用いて、出力する楽音コンテンツを部分的に重み付けをしたりすることが可能である。例えば、ある楽音ソースの音圧をあげて、他方の楽音ソースの音圧を下げ、さらに他の楽音ソースを強調したり、音色を変更して特色を持たせたり、またある楽音ソースにエコー等のエフェクトをかけたりすることを可能にすることが出来る。   Here, the parameter extraction unit 15 uses information that is collected by the environment information acquisition unit 14 or is a parameter determination factor set by the parameter setting unit 17, and uses a predetermined relational expression (a number described later). Calculations for calculating various parameters are performed according to Formula 1 or Formulas 2 to 4. Using the parameters obtained in this way, it is possible to partially weight the musical sound content to be output. For example, increase the sound pressure of one musical sound source, lower the sound pressure of the other musical sound source, further emphasize other musical sound sources, change the timbre to give it a characteristic, echo to a certain musical sound source, etc. It is possible to apply effects.

また、パラメータ設定部17は、前記のように外部データ発生手段(例えばパターン発生器等)から情報を入力するか、あるいはキーボード等を介して使用者が操作して入力する入力手段を有しており、この入力手段に入力される情報である音楽コンテンツの態様を示す形容詞または形容語をデータ変換手段によりデータ形式に変換してパラメータ生成処理を行い、これにより得られたパラメータをパラメータ抽出部15を経由してパラメータ制御部に送出する。これにより、さらに容易に新たな楽音コンテンツを構成することができる。このような、形容詞または形容語の例として、例えば、
あたたかい 派手な 軽やかな
かたい 複雑な あたらしい
はやい にぎやかな 変化に富んだ
興奮した 美しい 男性的な
積極的な 能動的な 自然な
まとまった はっきりした 現実的な
趣味的な 個性的な 目立つ
便利な 手軽な 面白い
つめたい 地味な 重々しい
やわらかい 単純な 古い
おそい 落ち着いた 単調な
冷静な 醜い 女性的な
消極的な 受動的な 不自然な
ばらばらな ぼんやりした 幻想的な
実用的な 平凡な 目立たない
不便な 煩雑な つまらない
等を挙げることが出来る。
Further, the parameter setting unit 17 has input means for inputting information from an external data generating means (for example, a pattern generator) as described above, or for operating by a user via a keyboard or the like. In addition, an adjective or an adjective indicating the form of music content, which is information input to the input means, is converted into a data format by the data conversion means, and parameter generation processing is performed. Is sent to the parameter control unit via. Thereby, a new musical sound content can be configured more easily. Examples of such adjectives or adjectives are, for example:
Warm Flashy Light Hard Complex New New Quick Lively Variety Excited Beautiful Masculine Active Active Natural Group Clear Realistic Hobby Personality Conspicuous Useful Handy Funny I want to squeeze sober heavy soft simple old calm calm monotonous calm ugly feminine passive passive unnatural loose fantasy fantastic practical mediocre inconspicuous inconvenient cumbersome boring I can list them.

また、例えば店舗等で用いる広告用の音楽コンテンツなどを想定した形容詞・形容語として
高級感のある
安価な感じの
大人っぽい
子供っぽい
等を加えても良い。これら形容詞または形容語の入力に対してはデータ変換部を内蔵し、対応する符号に変換する気候としておくことにより目的は達成される。
Further, for example, an adjective / adjective that assumes music content for advertisement used in a store or the like may be added to a high-class, inexpensive, adult-like, child-like, or the like. These adjectives or adjectives can be input with a built-in data converter, and the object can be achieved by setting the climate to convert to a corresponding code.

また、パラメータ設定部17に、前記「特許文献7」に記載の方法及びプログラムを用いて楽音ソースに関する特徴量を抽出し、これをパラメータとして用いることも可能である。   Further, the parameter setting unit 17 can extract a feature value related to a musical sound source using the method and program described in the above-mentioned “Patent Document 7”, and use this as a parameter.

(実施の形態2)
図2は本発明における第2の実施の形態としてのブロック図である。すなわち、環境情報取得部14からの情報を選択条件として楽音ソース読み取り部11から楽音ソース選択部21に楽音ソースを選択して読み込む。楽音ソース選択部21で選択された複数の楽音ソースをミキシング部22でミキシング処理を行い、これにより多様な楽音ソースから新たな楽音コンテンツを生成し、音源出力部13を介して出力する構成である。ここで、ミキシング処理とは、入力された複数の楽音ソースの組み合わせ、あるいはそれぞれの楽音ソースの信号レベルの比を操作して各種の楽音コンテンツを生成する処理を言う。
(Embodiment 2)
FIG. 2 is a block diagram as a second embodiment of the present invention. In other words, the musical sound source is selected and read from the musical sound source reading unit 11 to the musical sound source selecting unit 21 using the information from the environment information acquisition unit 14 as a selection condition. A plurality of musical sound sources selected by the musical sound source selection unit 21 are mixed by the mixing unit 22, thereby generating new musical sound contents from various musical sound sources and outputting them via the sound source output unit 13. . Here, the mixing process refers to a process of generating various musical sound contents by operating a combination of a plurality of input musical sound sources or a ratio of signal levels of the respective musical sound sources.

この構成により、多様な楽音ソースを、楽音コンテンツを提供する場所周辺の環境状態に応じてミキシングして、新たな楽音コンテンツを出力することが可能となる。また、環境情報取得部14を複数設置し、これにより多様でかつ、より的確な環境情報を取得し、その場所の環境に適した楽音ソースを用いてミキシングし、新たな楽音コンテンツを生成することを可能にしている。すなわち、これら環境情報取得部14が取得した結果により、楽音ソース選択部21においてその場所の環境に適した楽音ソースを選択し、ミキシング部22により新たにミキシングされた楽音コンテンツを構成することが可能となる。   With this configuration, it is possible to output various musical sound sources by mixing various musical sound sources according to the environmental conditions around the place where the musical sound content is provided. In addition, a plurality of environmental information acquisition units 14 are installed, thereby acquiring various and more accurate environmental information, mixing with a musical sound source suitable for the environment of the place, and generating new musical sound content Is possible. In other words, based on the results acquired by the environment information acquisition unit 14, the musical sound source selection unit 21 can select a musical sound source suitable for the environment of the place, and the musical sound content newly mixed by the mixing unit 22 can be configured. It becomes.

また、図2の構成において、楽音ソース選択部21において予め設定されていない選択方法を別途設定し得る機能を持たせるため、図示しないが、例えばデータ発生器あるいは使用者によって操作されるキーボード等の入力手段を介して入力された外部からの楽音ソース選択方法に関する情報はデータ変換部によりデータ形式に変換され、このデータを用いて新しい楽音ソース選択方法を設定することが出来る。これにより、環境情報取得部14の出力を用いての選択方法では得られなかった新たな選択方法を設定することが出来る。   In addition, in the configuration of FIG. 2, in order to provide a function that can separately set a selection method that is not preset in the musical sound source selection unit 21, although not shown, for example, a data generator or a keyboard operated by the user Information regarding the external music source selection method input via the input means is converted into a data format by the data converter, and a new musical sound source selection method can be set using this data. Thereby, a new selection method that cannot be obtained by the selection method using the output of the environment information acquisition unit 14 can be set.

楽音ソース選択法としては楽音ソース選択部21で予め定められた数式を用いて楽音ソースを算出する。この構成により、複数の数式(例えば、後述の数2式乃至数4式)を用いて、パラメータを決定する変数(要因)に重み付けをした結果を楽音ソースの選択に反映させることが出来る。   As a musical sound source selection method, a musical sound source is calculated using a mathematical formula predetermined by the musical sound source selection unit 21. With this configuration, a result of weighting a variable (factor) for determining a parameter using a plurality of mathematical formulas (for example, formulas 2 to 4 described later) can be reflected in selection of a musical sound source.

例えば、前記「特許文献7」において開示されている音声特徴量に相当する楽音特徴量から楽音ソース設定時には予想していなかった新しい楽音ソースを図示しないが例えばマイクロフォンを介して入力することも可能とし、これにより楽音ソースをミキシングする範囲を拡大することも出来る。   For example, a new musical sound source that is not anticipated at the time of setting the musical sound source from the musical sound characteristic amount corresponding to the voice characteristic amount disclosed in the above-mentioned “Patent Document 7” can be input via, for example, a microphone (not shown). This also expands the range for mixing musical sound sources.

さらに、楽音ソース選択部21において、前記外部からの入力手段への入力データを予め設定されている楽音ソース選択方法に関連付けられた形容詞または形容語に置き換え、これら形容詞または形容語を入力し、符号化して楽音ソース選択部21に取り込むことにより新たな楽音コンテンツをさらに容易に構成することが可能になるという効果がある。これに使用する形容詞または形容語の例は前述のとおりである。   Further, the musical sound source selection unit 21 replaces the input data to the external input means with adjectives or adjectives associated with a predetermined musical sound source selection method, inputs these adjectives or adjectives, This is advantageous in that a new musical sound content can be configured more easily by converting it into the musical sound source selection unit 21. Examples of adjectives or adjectives used for this are as described above.

楽音ソース選択部21においては、楽音ソースの楽音特徴量から楽音ソースの選択方法の手順として設定する機能を備えている。これにより、楽音特徴量を抽出し、その結果を楽音ソースの選択方法として用いることが出来る。   The musical sound source selection unit 21 has a function of setting as a procedure of a musical sound source selection method from musical sound feature quantities of the musical sound source. Thereby, a musical sound feature amount can be extracted and the result can be used as a method for selecting a musical sound source.

(実施の形態3)
図3は本発明における第3の実施の形態における構成を示すブロック図である。楽音ソースであるメロディ素片の類は楽音ソース読み取り部11から読み取られ、この読み取られた楽音ソースはボリューム・イコライザ部12において各楽音ソースの信号レベル、あるいは楽音ソース全体の信号レベルに関してそれぞれ調整される。
(Embodiment 3)
FIG. 3 is a block diagram showing a configuration according to the third embodiment of the present invention. The type of melody segment that is a musical sound source is read from the musical sound source reading unit 11, and the read musical sound source is adjusted in the volume equalizer unit 12 with respect to the signal level of each musical sound source or the signal level of the whole musical sound source. The

この調整された楽音ソースから生成された音源となる楽音コンテンツ(音源)を、音源出力部13を介して出力する構成は実施の形態1で述べた従来例と同様であるが、本実施の形態3の特徴とするところは、ボリューム・イコライザ部12で信号レベル調整を行った楽音ソースと、実施の形態2で示した楽音ソース選択部21の出力とをミキシング部22でミキシングして各楽音ソースの組み合わせの組み換えを行うことによりさらに多様な楽音コンテンツの形成を可能にしていることである。   The configuration for outputting the musical sound content (sound source) as the sound source generated from the adjusted musical sound source via the sound source output unit 13 is the same as that of the conventional example described in the first embodiment. 3 is characterized in that the tone source whose signal level is adjusted by the volume equalizer unit 12 and the output of the tone source selection unit 21 shown in the second embodiment are mixed by the mixing unit 22 and each tone source. By recombining these combinations, it is possible to form more diverse musical sound contents.

図3の装置の動作は以下のように説明される。楽音ソース読み取り部11から楽音ソースは読み取られボリュームイコライザ部12に入力されるが、ここで、楽音ソース選択部21は環境情報取得部14からの環境状態の計測結果により選択する楽音ソースを最適化するために環境情報取得部14と対話的に動作する。また、パラメータ設定部17の場合も、同様にパラメータ設定部17経由でパラメータを設定する場合は楽音ソース読み取り部11と対話的に処理して最適パラメータを求めてパラメータ抽出部12に送出する。   The operation of the apparatus of FIG. 3 is described as follows. The musical sound source is read from the musical sound source reading unit 11 and input to the volume equalizer unit 12. Here, the musical sound source selection unit 21 optimizes the musical sound source to be selected based on the measurement result of the environmental state from the environmental information acquisition unit 14. In order to do this, it interacts with the environment information acquisition unit 14. Similarly, in the case of the parameter setting unit 17, when setting a parameter via the parameter setting unit 17, an optimum parameter is obtained by interactive processing with the musical sound source reading unit 11 and sent to the parameter extraction unit 12.

また、ボリューム・イコライザ部12の動作は、パラメータ抽出部15において抽出されたパラメータを、パラメータ制御部16によりボリューム・イコライザ部12の動作を設定しているパラメータを制御することにより設定される。ここで、パラメータ抽出部15においては、環境情報取得部14の出力と、楽音ソース選択部21の出力と、パラメータ設定部17の出力と、を用いてパラメータ抽出部15からパラメータを抽出し、抽出されたパラメータによりパラメータ制御部16を経由してボリューム・イコライザ部12を制御する。これにより得られたボリューム・イコライザ部12の出力は楽音ソース選択部21の出力と共にミキシング部22に入力されミキシング処理される。このようにして得られたミキシング部22出力は、多様な楽音ソースを周辺の環境状態に応じた新たな楽音コンテンツとして音源出力部13により出力される。   Further, the operation of the volume equalizer unit 12 is set by controlling the parameters extracted by the parameter extraction unit 15 by the parameter control unit 16 which controls the operation of the volume equalizer unit 12. Here, the parameter extraction unit 15 extracts and extracts parameters from the parameter extraction unit 15 using the output of the environment information acquisition unit 14, the output of the musical sound source selection unit 21, and the output of the parameter setting unit 17. The volume equalizer unit 12 is controlled via the parameter control unit 16 according to the parameter thus set. The output of the volume equalizer unit 12 obtained in this way is input to the mixing unit 22 together with the output of the musical sound source selection unit 21 and mixed. The output of the mixing unit 22 obtained in this way is output by the sound source output unit 13 as various musical sound sources as new musical sound contents according to the surrounding environmental conditions.

以上に示したような装置を用いて、楽音コンテンツを構成する場合の例として、例えば通行者が表示ディスプレイの前を通行する際、
ディスプレイに注目することなく通過する場合、
ディスプレイに注目しながら通過する場合、
ディスプレイに注目し立ち止まる場合
の3つの場合が想定される。このような3つの場合については、例えば、装置側のカメラ出力を画像解析して視線の方向を分析することにより弁別できる。
As an example of configuring musical sound content using a device as described above, for example, when a passerby passes in front of a display,
If you pass without paying attention to the display,
If you pass while paying attention to the display,
Three cases are assumed in which the display is focused and stopped. Such three cases can be discriminated by analyzing the direction of the line of sight by analyzing the camera output on the apparatus side, for example.

まず、ディスプレイに注目することなく通過する第1の場合を考えると、この場合は単に前を通過するのみであるから、例えば、朝は音量を下げて楽音を再生したり、楽音データから、予め静かなメロディ、うるさいメロディ、楽しいメロディ、悲しいメロディ等を分類しておき静かな、落ち着いた、等の形容詞または形容語に対応するメロディを組み合わせて楽音を構成することが可能である。   First, considering the first case of passing without paying attention to the display, in this case, only the front is passed. For example, in the morning, the sound is reduced by lowering the volume, or from the sound data in advance. It is possible to classify quiet melody, noisy melody, fun melody, sad melody, etc., and compose musical sounds by combining melody corresponding to adjectives or adjectives such as quiet and calm.

また、ディスプレイに注目しながら通過する第2の場合を考えると、この場合、昼間は音量を上げて、より注目を集めるようにポップで明るいメロディを、前記と同様に形容詞または形容語との対応で選択し、組み合わせることによって楽音を構成することが可能である。   Considering the second case of passing while paying attention to the display, in this case, the volume is increased during the daytime, and a pop and bright melody is collected to attract more attention. It is possible to compose a musical tone by selecting and combining them.

また、ディスプレイに注目し立ち止まる第3の場合を考えると、この場合、音量は中程度、表示デイスブレイの表示された内容の持つイメージに合い、内容を損なわないように形容詞、形容語を選択し、その対応でメロディを組み合わせることによって楽音を構成することが可能である。   Considering the third case where attention is paid to the display and stops, in this case, the volume is medium, and it matches the image of the displayed contents of the display display, and selects adjectives and adjectives so as not to damage the contents. It is possible to compose a musical sound by combining melody with the correspondence.

さらに、このような装置を用いて、楽音コンテンツを構成する場合の例として、表示ディスプレイの前に、一人しかいない場合と、数名いる場合と、集団で沢山の人がいる場合と、が考えられる。   Furthermore, as an example of constructing musical sound content using such a device, there are cases where there is only one person in front of the display display, there are several persons, and there are many people in the group. It is done.

まず、一人しかいない場合は、環境情報取得部14を通じて取得した対象者が携行しているIDタグ等に記録されている個人の趣味、嗜好等の各種属性に基づき、属性情報を反映することによってその個人の好みに近い楽音を構成することが可能である。   First, when there is only one person, by reflecting attribute information based on various attributes such as personal hobbies and preferences recorded in an ID tag carried by the target person acquired through the environmental information acquisition unit 14 It is possible to compose a musical tone close to the personal preference.

また、複数名いる場合は、環境情報取得部14を通じて取得した個人情報を必要数選択し、その属性情報をランダムに組み替えることによって一人でいるときとは違った新しいイメージの含まれる楽音を構成することが可能である。   In addition, when there are a plurality of persons, a necessary number of personal information acquired through the environment information acquisition unit 14 is selected, and the attribute information is randomly rearranged to compose a musical tone including a new image different from when alone. It is possible.

また、グループを形成している集団でいる場合は、例えばそのときの時刻を反映し、朝ならヒーリングなどに象徴される「癒し、静かな」などの形容詞、形容語を反映した楽音を構成し、昼なら活動的なイメージの「元気な、明るい」などの形容詞、形容語を反映した楽音を構成し、夜なら「大人っぽい、落ち着いた」などの形容詞または形容語を反映した楽音を構成することが可能である。   If you are a group that forms a group, for example, it reflects the time of the day, and in the morning it constitutes a musical sound that reflects adjectives and adjectives such as `` healing and quiet '' symbolized by healing. , Composed of adjectives and adjectives such as “Energetic and Bright” in the active image at noon, and composed of adjectives and adjectives such as “adult and calm” at night Is possible.

この際、設置場所を考慮し、駅(通路・駅構内)、店舗(飲食店・宝飾店・服飾店など)、様々な場所の特性にあった形容詞または形容語を選択することも可能である。   In this case, it is also possible to select adjectives or adjectives that match the characteristics of the station (passage / station premises), stores (restaurants, jewelry stores, clothing stores, etc.), and various locations, taking into account the installation location. .

(実施の形態4)
以下、パラメータの抽出・設定の手順について説明する。
図1乃至図3に記載の環境情報取得部14で収集される環境情報は、図4に示す「人」に関するパラメータ設定要因となる情報と、図5に示す「気候」に関するパラメータ設定要因となる情報と、図6に示す「時刻」に関するパラメータ設定要因となる情報とに大別される。
(Embodiment 4)
A procedure for parameter extraction / setting will be described below.
The environment information collected by the environment information acquisition unit 14 shown in FIG. 1 to FIG. 3 is parameter setting factors related to “person” shown in FIG. 4 and parameter setting factors related to “climate” shown in FIG. Information and information that is a parameter setting factor related to “time” shown in FIG.

図4の「人」に関する情報は、カメラ410に対して、物体認識処理411により人数nを把握し、物体の動きに関するベクトル抽出処理412により「人」の動きmを求め、物体のズーム率及び三角測定処理413により人までの距離(遠近)dを算出することにより、人数n、動きm、距離(遠近)dに関する情報を得、カメラ410がない場合、あるいはさらに多くの情報を得るために(無線タグ/PHS/GPS)420の何れかを用いて通過測定処理を行うことにより目標とする地域内を移動する人数nおよび、位置測定処理により所定の位置から「人」までの距離(遠近)dの情報を得、マイクロフォン430により音圧測定431を行い周囲騒音の音圧pのレベルに関する情報を得、必要ならば匂いセンサ440により匂い測定処理により匂いsの情報を、それぞれ取得し出力する。   For the information on “person” in FIG. 4, the camera 410 grasps the number of people n by the object recognition process 411, obtains the motion “m” of the person by the vector extraction process 412 related to the movement of the object, By calculating the distance (far / near) d to the person by the triangulation measurement process 413, information on the number of people n, the movement m, and the distance (far / near) d is obtained. The number n of people who move in the target area by performing the passage measurement process using any one of the (wireless tag / PHS / GPS) 420 and the distance from the predetermined position to the “person” by the position measurement process (perspective) ) Obtain information on d, measure the sound pressure 431 with the microphone 430, obtain information on the sound pressure p level of ambient noise, and measure the odor with the odor sensor 440 if necessary. Information odor s by processing, respectively obtains output.

図5の「気候」に関する情報は、カメラ410から照度測定処理414を行い明るさlの情報を、色相測定処理により色相r,g,bの情報を、温度センサ520により気温aの情報を、湿度センサ530により湿度hの情報を、さらにカメラ410を使用しない場合の別手段として照度センサ540から明るさlの情報を、風速センサ550により風速wの情報を、それぞれ取得し出力する。   The information on “climate” in FIG. 5 is obtained by performing illuminance measurement processing 414 from the camera 410, information on brightness l, information on hue r, g, b by hue measurement processing, information on temperature a by temperature sensor 520, The humidity sensor 530 acquires and outputs the humidity h information, the brightness l information from the illuminance sensor 540 as another means when the camera 410 is not used, and the wind speed w information from the wind speed sensor 550.

図6の「時刻」に関する情報は、時計610より時刻tを取得し出力する。   Information relating to “time” in FIG. 6 is obtained by obtaining the time t from the clock 610.

図1及び図3記載のパラメータ抽出部15では、上記環境情報取得部14からの入力により、以下の(数1)式を用いてパラメータPを算出する。   In the parameter extraction unit 15 shown in FIGS. 1 and 3, the parameter P is calculated using the following expression (Equation 1) based on the input from the environment information acquisition unit 14.

Figure 2006235201
また、上記(数1)式のパラメータは「人」、「気候」及び「時刻」毎にそれぞれP,P,Pと分割して、
Figure 2006235201
Further, the parameter of the above equation (1) is divided into P f , P c , and P t for each of “people”, “climate”, and “time”, respectively.

Figure 2006235201
Figure 2006235201

Figure 2006235201
Figure 2006235201

Figure 2006235201
の各式より、同様に算出することも出来る。
Figure 2006235201
It is also possible to calculate in the same manner from each of the equations.

パラメータ設定部17では、例えば環境情報取得部14が存在しない場合、あるいはパラメータ抽出部15で抽出できなかったパラメータがある場合には目的とするパラメータあるいは仮のパラメータを外部でパターン発生器等の手段により生成し、これをパラメータ設定部17に入力手段を介して入力する。この入力手段としては、前記のようにデータ発生器あるいは使用者によって操作されるキーボード等の入力手段の他にマイクロフォンによる音声入力も可能である。この場合はマイクロフォンからは例えば新しい楽音ソースを入力し、これをデータ化して楽音ソース読み取り部11にこれを記録することになる。これによって、より多くの場面の環境に的確に対応することが出来るようになる。   In the parameter setting unit 17, for example, when the environment information acquisition unit 14 does not exist or when there is a parameter that cannot be extracted by the parameter extraction unit 15, a target parameter or a temporary parameter is externally used as a means such as a pattern generator. This is input to the parameter setting unit 17 via the input means. As the input means, in addition to the input means such as the data generator or the keyboard operated by the user as described above, voice input by a microphone is also possible. In this case, for example, a new musical sound source is input from the microphone, and this is converted into data and recorded in the musical sound source reading unit 11. As a result, it becomes possible to accurately cope with the environment of more scenes.

この処理の流れを、環境情報取得部14が存在する場合と存在しない場合とについて図7に示す。図7において、外部からの入力及び環境情報取得部14の何れかまたは両者が共に存在しない場合(S100およびS101が共に“NO”)には、楽音ソース読み取り部11から楽音情報を取得し(S104)、ユーザからの入力があり(S100“YES”)、環境情報取得部14が存在し(S101“Yes”)、かつマイクロフォンが存在する場合(S102“YES”)にはマイクロフォンから楽音情報を取得し(S103)、マイクロフォンが存在しない場合(S102“NO”)は楽音ソース読み取り部11から楽音ソース情報を読み込む(S104)。これにより得られた楽音ソース情報を前記「特許文献7」に記載の式(11)及び(12)を用いてPSemp及びPSnrm値を算出し(S105)、楽音ソースの特徴量PThis processing flow is shown in FIG. 7 for the case where the environment information acquisition unit 14 is present and the case where it is not present. In FIG. 7, when either or both of the external input and the environment information acquisition unit 14 do not exist (both S100 and S101 are “NO”), the musical sound information is acquired from the musical sound source reading unit 11 (S104). ) When there is an input from the user (S100 “YES”), the environment information acquisition unit 14 exists (S101 “Yes”), and the microphone exists (S102 “YES”), the musical sound information is acquired from the microphone. If there is no microphone (S102 “NO”), the music source information is read from the music source reading unit 11 (S104). Tone source information obtained by this using equation (11) and (12) described in the "Patent Document 7" to calculate the P Semp and P SNRM value (S105), the tone source characteristic quantity P e

Figure 2006235201
により求め、パラメータ抽出部15に渡す。
Figure 2006235201
And passed to the parameter extraction unit 15.

また、パラメータ設定部17にパラメータに関連付けられた形容詞または形容語を入力した場合、それぞれの形容語を例えば、
人;「派手な、かたい、複雑な、にぎやかな、興奮した、美しい、男性的な、積極的な、能動的な、現実的な、趣味的な、個性的な、目立つ、便利な、手軽な、面白い、まとまった,はっきりした、地味な、重々しい、やわらかい、単純な、落ち着いた、単調な、冷静な、醜い、女性的な、消極的な、受動的な、不自然な、ばらばらな、ぼんやりした、幻想的な、実用的な、平凡な、目立たない、不便な、煩雑な、つまらない」
気侯;「あたたかい、変化に富んだ、自然な、つめたい」
時刻;「軽やかな、あたらしい、はやい、古い、おそい」
と分類し、因子分析を行って因子得点を算出し、これにより図8に示す得点表を作成し、この得点表において予め定められた基準得点以上の得点から(例えば、図8における太字部分)因子を導出する。図8においては2つの因子の場合である。得られた因子得点の数値は図1及び図3記載のパラメータ抽出部15に渡され、各因子得点に対応する要因(n,m,d,‥‥等)に対応する係数kijに代入されて上記(数2)(数3)(数4)の各式において各パラメータP、P、Pを算出する。
When an adjective or an adjective associated with a parameter is input to the parameter setting unit 17, each adjective is, for example,
Person; “fancy, hard, complex, lively, excited, beautiful, masculine, aggressive, active, realistic, hobby, individual, conspicuous, convenient, convenient Naughty, funny, organized, clear, sober, heavy, soft, simple, calm, monotonous, calm, ugly, feminine, passive, passive, unnatural, disjointed , Hazy, fantastic, practical, mediocre, unobtrusive, inconvenient, cumbersome, boring "
Keen; “Want to be warm, varied, natural, want to pinch”
Time: “Light, new, fast, old, slow”
The factor score is calculated by performing factor analysis, thereby creating the score table shown in FIG. 8, and from the score higher than the reference score predetermined in this score table (for example, bold portion in FIG. 8) Deriving factors. FIG. 8 shows the case of two factors. The obtained numerical value of the factor score is passed to the parameter extraction unit 15 shown in FIGS. 1 and 3, and is substituted for the coefficient k ij corresponding to the factor (n, m, d,...) Corresponding to each factor score. Thus, the parameters P f , P c , and P t are calculated in the equations (Equation 2), (Equation 3), and (Equation 4).

図1及び図3記載のパラメータ制御部16では、パラメータ抽出部15から得られた各パラメータを基に、ボリューム・イコライザ部12のパラメータを制御する。
図2及び図3に記載の楽音ソース選択部21での処理の流れを図9に示す。環境情報取得部14が存在する場合(S200“YES”)、図1乃至図3に記載の環境情報取得部14より環境情報を取得する(S202)。また、環境情報取得部14が存在しない場合(S200“NO”)、これは図7における(S101“NO”)の場合に相当しているが、この場合は図示しないが内蔵の乱数発生部により乱数を発生し、この乱数値を仮の環境情報の値とする(S201)。次に処理ステップS201または処理ステップS202において取得した値を、予め設定した“YES”または“NO”を判定する閾値Thを用いて、楽音ソース選択判定処理を行う(S203)。すなわち、前記乱数値と予め設定されている閾値との大小関係を楽音ソース選択判定処理において比較する。ここで、最初に設定した乱数値が閾値Thに対して予め定められた範囲内に至らない場合は、“YES”が得られるまで処理ステップ「乱数値を発生(S201)」から「楽音ソース選択判定処理(S203)」までのステップを繰り返す。この閾値Thに対する範囲内に収まったところでこの結果を受け、楽音ソース読み取り部11において、該当する任意の楽音ソースを複数選択する(S204)。
The parameter control unit 16 shown in FIGS. 1 and 3 controls the parameters of the volume equalizer unit 12 based on the parameters obtained from the parameter extraction unit 15.
FIG. 9 shows the flow of processing in the tone source selection unit 21 shown in FIGS. When the environment information acquisition unit 14 exists (S200 “YES”), the environment information is acquired from the environment information acquisition unit 14 illustrated in FIGS. 1 to 3 (S202). Further, when the environment information acquisition unit 14 does not exist (S200 “NO”), this corresponds to the case of (S101 “NO”) in FIG. 7, but in this case, although not shown, a built-in random number generation unit A random number is generated, and this random value is set as a temporary environment information value (S201). Next, a musical sound source selection determination process is performed using the threshold value Th for determining “YES” or “NO” set in advance in the value acquired in the process step S201 or the process step S202 (S203). That is, the musical sound source selection determination process compares the magnitude relationship between the random number value and a preset threshold value. Here, if the initially set random number value does not fall within a predetermined range with respect to the threshold value Th, the processing step “Generate random number value (S201)” to “musical sound source selection” until “YES” is obtained. The steps up to the “determination process (S203)” are repeated. In response to this result when it falls within the range with respect to the threshold Th, the musical sound source reading unit 11 selects a plurality of corresponding arbitrary musical sound sources (S204).

図2及び図3記載のミキシング部22では、楽音ソース選択部21により選択された複数の楽音ソースをミキシングし、音源出力部13に渡す。   2 and 3 mixes a plurality of tone sources selected by the tone source selection unit 21 and passes them to the sound source output unit 13.

以上述べたように、本発明においては、コンピュータに前記環境情報により前記パラメータの抽出と、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツを構成する処理を実行させるための楽音コンテンツ構成プログラムを含むものである。   As described above, in the present invention, the computer extracts the parameters based on the environment information, and based on the parameters, either adjectives or adjectives associated with the parameters are converted into data by the data conversion means. It includes a musical sound content composition program for executing processing for constructing musical sound content by converting into a format.

また、コンピュータに上記プログラム、すなわち、前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに形容詞または形容語の何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツの構成を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体も含むものである。   Further, the computer extracts the parameters based on the program, that is, the environment information, and converts either adjective or adjective data into the data format by the data conversion means based on the parameters. It also includes a computer-readable recording medium that records a program for executing the configuration of the musical sound content.

本発明における第1の実施の形態を示すブロック図。The block diagram which shows 1st Embodiment in this invention. 本発明における第2の実施の形態を示すブロック図。The block diagram which shows 2nd Embodiment in this invention. 本発明における第3の実施の形態を示すブロック図。The block diagram which shows the 3rd Embodiment in this invention. 人に関する環境情報を求めるフロー図。The flow figure which asks for environmental information about a person. 気候に関する環境情報を求めるフロー図。Flow chart for requesting environmental information related to climate. 時刻に関する環境情報を求めるフロー図。The flowchart which calculates | requires the environmental information regarding time. 楽音コンテンツ構成の手順を示すフロー図。The flowchart which shows the procedure of a musical sound content structure. 入力した各形容語に関する得点に関する因子分析の結果図。The figure of the result of factor analysis about the score about each inputted adjective. 楽音ソース選択の手順を示すフロー図。The flowchart which shows the procedure of a musical sound source selection.

符号の説明Explanation of symbols

10:楽音コンテンツ選択調整出力部
11:楽音ソース読み取り部 12:ボリューム・イコライザ部
13:音源出力部 14:環境情報取得部
15:パラメータ抽出部 16:パラメータ制御部
17:パラメータ設定部 21:楽音ソース選択部
22:ミキシング部
10: Music content selection adjustment output unit 11: Music source reading unit 12: Volume equalizer unit 13: Sound source output unit 14: Environment information acquisition unit 15: Parameter extraction unit 16: Parameter control unit 17: Parameter setting unit 21: Music source Selection unit 22: Mixing unit

Claims (13)

楽音ソース読み取り手段から読み取り、該読み取られた楽音ソースをボリューム・イコライザ手段により調整し、楽音コンテンツとして音源出力手段により出力する楽音コンテンツ構成方法において、
前記楽音コンテンツを提供する場所周辺の環境状態の情報を環境情報取得手段により計測し、
前記環境情報取得手段において計測した環境情報を基に、前記ボリューム・イコライザ手段の動作を制御するための1つまたは複数のパラメータをパラメータ抽出手段において抽出し、
また、パラメータ設定手段では、外部から入力されたパラメータ生成情報を第1の入力手段を介して取り込み、該入力されたパラメータ生成情報を第1のデータ変換手段を介してデータ形式に変換した後、前記パラメータを生成し、
前記生成されたパラメータは前記パラメータ抽出手段に送出され、
前記パラメータ抽出手段の出力に応じてパラメータ制御手段が前記ボリューム・イコライザ手段のパラメータを制御することにより前記楽音コンテンツを構成する
ことを特徴とする楽音コンテンツ構成方法。
In a music content configuration method of reading from a musical sound source reading means, adjusting the read musical sound source by a volume equalizer means, and outputting the musical sound content by a sound source output means,
Measure environmental information by the environmental information acquisition means around the place where the musical sound content is provided,
Based on the environment information measured by the environment information acquisition means, one or more parameters for controlling the operation of the volume equalizer means are extracted by the parameter extraction means,
Further, the parameter setting means takes in the parameter generation information input from the outside through the first input means, converts the input parameter generation information into the data format through the first data conversion means, Generating the parameters,
The generated parameter is sent to the parameter extraction means,
A musical sound content composition method, wherein the musical sound content is constructed by a parameter control means controlling a parameter of the volume equalizer means in accordance with an output of the parameter extraction means.
請求項1に記載の楽音コンテンツ構成方法において、
前記パラメータ設定手段において、前記楽音コンテンツの態様を示す形容詞または形容語を前記第1のデータ変換手段によりデータに変換して前記パラメータ抽出手段に入力する
ことを特徴とする楽音コンテンツ構成方法。
In the musical sound content composition method according to claim 1,
The musical sound content composition method, wherein the parameter setting means converts an adjective or an adjective indicating an aspect of the musical sound content into data by the first data conversion means and inputs the data to the parameter extraction means.
楽音ソース読み取り手段から読み取り、音源出力手段により楽音コンテンツを出力する楽音コンテンツ構成方法において、
前記楽音コンテンツを提供する場所周辺の環境状態の情報を環境情報取得手段で計測し、
前記環境情報取得手段の計測結果で得られた情報を基に前記楽音ソースを少なくとも1つ以上楽音ソース選択手段において選択し、
前記楽音ソース選択手段で選択された楽音ソースをミキシング手段でミキシングして多様な楽音ソースから楽音コンテンツを構成する
ことを特徴とする楽音コンテンツ構成方法。
In the musical sound content composition method of reading from the musical sound source reading means and outputting the musical sound content by the sound source output means,
Measuring environmental information around the place where the musical sound content is provided by an environmental information acquisition means,
Based on the information obtained from the measurement result of the environmental information acquisition means, at least one musical sound source is selected by the musical sound source selection means,
A musical sound content composition method comprising: constructing musical sound contents from various musical sound sources by mixing musical sound sources selected by the musical sound source selecting means with mixing means.
請求項3に記載の楽音コンテンツ構成方法において、
前記楽音ソース選択手段は楽音ソース選択方法を入力するための第2の入力手段を有し、該入力手段に入力する該楽音ソース選択方法は前記楽音コンテンツの態様を示す形容詞または形容語をデータ形式に変換する第2のデータ変換手段を介して入力する
ことを特徴とする楽音コンテンツ構成方法。
In the musical sound content composition method according to claim 3,
The musical sound source selection means has a second input means for inputting a musical sound source selection method, and the musical sound source selection method input to the input means has an adjective or an adjective indicating an aspect of the musical sound content as a data format. A musical sound content composition method, characterized in that it is inputted via second data conversion means for converting into a music data.
楽音ソース読み取り手段から読み取り、該読み取られた楽音ソースをボリューム・イコライザ手段により調整し、楽音コンテンツとして音源出力手段により出力する楽音コンテンツ構成方法において、
前記音源出力手段からの出力を提供する場所周辺の環境状態を環境情報取得手段により計測し、
前記楽音ソース読み取り手段からの楽音ソースに対して前記環境情報取得手段により計測された結果を参照して楽音ソース選択手段において前記楽音ソースを選択し、
前記環境情報取得手段の出力と、前記楽音ソース選択手段の出力と、で前記ボリューム・イコライザの動作を制御するためのパラメータをパラメータ抽出手段で抽出し、
また、前記パラメータはパラメータ設定手段においても生成することが出来、該パラメータ設定手段の出力は前記パラメータ抽出手段に送出された後、前記パラメータ抽出手段出力としてパラメータ制御手段に送出され、前記パラメータ制御手段出力で前記ボリューム・イコライザ手段のパラメータを制御し、
前記ボリューム・イコライザ手段の出力と前記楽音ソース選択手段の出力とをミキシング手段でミキシングした後に前記音源出力部に送出することにより、多様な楽音ソースから楽音コンテンツを構成することを特徴とする楽音コンテンツ構成方法。
In a music content configuration method of reading from a musical sound source reading means, adjusting the read musical sound source by a volume equalizer means, and outputting the musical sound content by a sound source output means,
The environmental information around the place providing the output from the sound source output means is measured by the environmental information acquisition means,
Selecting the musical sound source in the musical sound source selecting means with reference to the result measured by the environmental information acquisition means for the musical sound source from the musical sound source reading means;
Parameters for controlling the operation of the volume equalizer at the output of the environment information acquisition means and the output of the musical sound source selection means are extracted by a parameter extraction means,
The parameter can also be generated by the parameter setting means, and the output of the parameter setting means is sent to the parameter extraction means and then sent to the parameter control means as the parameter extraction means output, and the parameter control means Control the parameters of the volume equalizer means at the output,
The musical sound content is composed of various musical sound sources by mixing the output of the volume equalizer unit and the output of the musical sound source selecting unit by the mixing unit and then sending the mixed sound to the sound source output unit. Configuration method.
請求項5記載の楽音コンテンツ構成方法において、
前記パラメータ設定手段は、第3の入力手段を介して入力されたパラメータ生成情報を第3のデータ変換手段でデータ形式に変換し、
また、前記楽音ソース選択手段は、入力された楽音ソース選択方法を入力するための第4の入力手段を有し、該入力手段に入力する該楽音ソース選択方法は前記楽音コンテンツの態様を示す形容詞または形容語をデータに第3のデータ変換手段を介して入力する
ことを特徴とする楽音コンテンツ構成方法。
6. The musical sound content composition method according to claim 5,
The parameter setting means converts the parameter generation information input via the third input means into a data format by the third data conversion means,
The musical sound source selection means has fourth input means for inputting the inputted musical sound source selection method, and the musical sound source selection method input to the input means is an adjective indicating an aspect of the musical sound content. Alternatively, an adjective word is input to the data through the third data conversion means, and the musical sound content composition method.
楽音ソース読み取り部から読み取り、該読み取られた楽音ソースをボリューム・イコライザ部により調整し、楽音コンテンツとして音源出力手段により出力する楽音コンテンツ構成装置において、
前記音源出力部の出力を提供する場所周辺の環境状態から前記環境情報を取得するため環境状態の計測を行う環境情報取得部と、
前記環境状態取得部で計測された環境情報を基に前記ボリューム・イコライザ部の動作を制御するパラメータを抽出するパラメータ抽出部と、
前記抽出されたパラメータで前記ボリューム・イコライザ部に設定されている前記パラメータを制御するためのパラメータ制御部と、
前記環境情報及び外部データ発生手段からのデータ入力手段を有するパラメータ設定部と、
を有することを特徴とする楽音コンテンツ構成装置。
In a musical sound content composition device that reads from a musical sound source reading unit, adjusts the read musical sound source by a volume equalizer unit, and outputs the musical sound content as a musical sound content by sound source output means;
An environmental information acquisition unit that measures the environmental state in order to acquire the environmental information from the environmental state around the place that provides the output of the sound source output unit;
A parameter extraction unit for extracting a parameter for controlling the operation of the volume equalizer unit based on the environmental information measured by the environmental state acquisition unit;
A parameter control unit for controlling the parameters set in the volume equalizer unit with the extracted parameters;
A parameter setting unit having data input means from the environment information and external data generation means;
A musical sound content composing apparatus comprising:
請求項7に記載の楽音コンテンツ構成装置において、
前記パラメータ設定は、前記楽音ソース選択のために楽音コンテンツの態様を示す形容詞または形容語をデータ形式に変換するデータ変換手段を介して入力する入力手段を有している
ことを特徴とする楽音コンテンツ構成装置。
In the musical sound content composition device according to claim 7,
The musical sound content characterized in that the parameter setting has an input means for inputting via a data conversion means for converting an adjective or an adjective indicating a musical sound content mode into a data format for the selection of the musical sound source Configuration equipment.
楽音ソース読み取部から読み取り、音源出力部から楽音コンテンツを出力する楽音コンテンツ構成装置において、
前記楽音コンテンツを提供する場所周辺の環境状態を計測する環境情報取得部と、
前記環境情報取得部の計測結果で得られた情報を基に前記楽音ソースの選択方法を設定する楽音ソース選択部と、
前記楽音ソース選択部からの情報により前記楽音ソースをミキシングし、該ミキシング結果の信号を前記音源出力部に送出するミキシング部と、
を有することを特徴とする楽音コンテンツ構成装置。
In the musical sound content composition device that reads the musical sound source reading unit and outputs the musical sound content from the sound source output unit,
An environmental information acquisition unit that measures an environmental condition around a place where the musical sound content is provided;
A musical sound source selection unit that sets a selection method of the musical sound source based on information obtained from the measurement result of the environmental information acquisition unit;
Mixing the music source according to the information from the music source selection unit, and sending a signal of the mixing result to the sound source output unit;
A musical sound content composing apparatus comprising:
楽音ソース読み取り部から読み取り、該読み取られ取られた楽音ソースをボリューム・イコライザ部により調整し、該調整された楽音ソースを楽音コンテンツとして音源出力部により出力する楽音コンテンツ構成装置において、
前記音源出力部からの出力を提供する場所周辺の環境状態を計測する環境情報取得部と、
前記環境情報取得部の情報を基に前記楽音ソースを選択する楽音ソース選択部と、
前記環境情報取得部による計測結果の情報を基に楽音ソース選択方法及び調整方法を設定するためのパラメータを抽出するパラメータ抽出部と、
前記抽出されたパラメータの情報により前記ボリューム・イコライザ部に設定されているパラメータを制御するパラメータ制御部と、
前記環境情報及び外部データ発生手段からのデータの入力手段を有し、該環境情報および該入力手段からのデータによりパラメータを設定することが出来るパラメータ設定部と、
前記楽音ソース選択部からの情報により前記読み取られた楽音ソースをミキシングし、前記音源出力部に送出するミキシング部と、
を有することを特徴とする楽音コンテンツ構成装置。
In a musical sound content composition device that reads from a musical sound source reading unit, adjusts the read musical sound source by a volume equalizer unit, and outputs the adjusted musical sound source as musical content by a sound source output unit;
An environment information acquisition unit that measures an environmental state around a place that provides output from the sound source output unit;
A musical sound source selection unit that selects the musical sound source based on information of the environmental information acquisition unit;
A parameter extraction unit for extracting parameters for setting a musical sound source selection method and an adjustment method based on information of measurement results by the environment information acquisition unit;
A parameter control unit that controls parameters set in the volume equalizer unit according to the extracted parameter information;
A parameter setting unit having data input means from the environmental information and external data generating means, and capable of setting parameters according to the environmental information and data from the input means;
Mixing the read musical sound source according to information from the musical sound source selection unit, and sending the mixed sound source to the sound source output unit;
A musical sound content composing apparatus comprising:
請求項1乃至請求項6に記載の楽音コンテンツ構成方法をコンピュータを用いて実現する為のプログラムであって、コンピュータに
前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツを構成する処理を実行させるための楽音コンテンツ構成プログラム。
A program for realizing the musical sound content composition method according to any one of claims 1 to 6, using a computer, extracting the parameter from the environment information based on the environment information, and based on the parameter, A musical sound content composition program for executing processing for composing musical sound content by converting data of any associated adjective or adjective into a data format by a data conversion means.
請求項11に記載のプログラムであって、
前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツの構成を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
The program according to claim 11,
The parameter is extracted from the environment information, and based on the parameter, the data of either an adjective or an adjective associated with the parameter is converted into a data format by the data conversion means, and the composition of the musical sound content is executed. A computer-readable recording medium on which a program for recording is recorded.
請求項1乃至請求項6の何れかに記載の楽音コンテンツ構成方法において、
前記環境情報取得手段が存在しない場合は、乱数発生器により乱数値を発生し、該乱数値を仮の環境情報の値とし、
前記乱数値と予め設定されている閾値との大小関係を楽音ソース選択判定処理において比較し、
前記乱数値が前記閾値に対して予め定められた範囲内に収斂するまで、前記乱数値発生から前記楽音ソース選択判定処理までの一連の処理を繰り返すことを特徴とする楽音コンテンツ構成方法。

In the musical sound content composition method according to any one of claims 1 to 6,
When the environment information acquisition means does not exist, a random number is generated by a random number generator, and the random value is set as a temporary environment information value.
The magnitude relationship between the random number value and a preset threshold value is compared in the musical sound source selection determination process,
A musical sound content composition method, wherein a series of processing from generation of the random number value to the musical sound source selection determination processing is repeated until the random value converges within a predetermined range with respect to the threshold value.

JP2005049051A 2005-02-24 2005-02-24 Method and device for constituting musical sound contents, and program and recording medium therefor Pending JP2006235201A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005049051A JP2006235201A (en) 2005-02-24 2005-02-24 Method and device for constituting musical sound contents, and program and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005049051A JP2006235201A (en) 2005-02-24 2005-02-24 Method and device for constituting musical sound contents, and program and recording medium therefor

Publications (1)

Publication Number Publication Date
JP2006235201A true JP2006235201A (en) 2006-09-07

Family

ID=37042924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005049051A Pending JP2006235201A (en) 2005-02-24 2005-02-24 Method and device for constituting musical sound contents, and program and recording medium therefor

Country Status (1)

Country Link
JP (1) JP2006235201A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012155085A (en) * 2011-01-25 2012-08-16 Yamaha Corp Musical sound synthesizer and program
JP2015135518A (en) * 2015-03-25 2015-07-27 ヤマハ株式会社 Music sound synthesizer and program
JP2016183988A (en) * 2015-03-25 2016-10-20 株式会社豊田中央研究所 Music generation device
WO2022185946A1 (en) * 2021-03-04 2022-09-09 ヤマハ株式会社 Information processing device and method for controlling same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012155085A (en) * 2011-01-25 2012-08-16 Yamaha Corp Musical sound synthesizer and program
JP2015135518A (en) * 2015-03-25 2015-07-27 ヤマハ株式会社 Music sound synthesizer and program
JP2016183988A (en) * 2015-03-25 2016-10-20 株式会社豊田中央研究所 Music generation device
WO2022185946A1 (en) * 2021-03-04 2022-09-09 ヤマハ株式会社 Information processing device and method for controlling same

Similar Documents

Publication Publication Date Title
JP3381074B2 (en) Sound component device
Emmerson et al. Expanding the horizon of electroacoustic music analysis
Craenen Composing Under the Skin: The Music-making Body at the Composer's Desk
WO2020145353A1 (en) Computer program, server device, terminal device, and speech signal processing method
CN106383676B (en) Instant photochromic rendering system for sound and application thereof
JP2014501941A (en) Music content production system using client terminal
Friberg A fuzzy analyzer of emotional expression in music performance and body motion
Gan et al. Multi-sensory landscape assessment: The contribution of acoustic perception to landscape evaluation
JP2006235201A (en) Method and device for constituting musical sound contents, and program and recording medium therefor
JP7274082B2 (en) Music generating device, music generating method, and music generating program
JP6501344B2 (en) Karaoke scoring system considering listener&#39;s evaluation
Woloshyn Electroacoustic Voices: Sounds Queer, and Why it Matters
JP6153255B2 (en) Singing part decision system
JP7419768B2 (en) Music generation method and music generation system
WO2023087932A1 (en) Virtual concert processing method and apparatus, and device, storage medium and program product
Tulilaulu et al. Data musicalization
Hajdu et al. From atmosphere to intervention: the circular dynamic of installations in hospital waiting areas.
Akbari Soundscape compositions for art classrooms
Mayor et al. Kaleivoicecope: voice transformation from interactive installations to video games
McGregor et al. Using participatory visualisation of soundscapes to compare designers’ and listeners’ experiences of sound designs
JP6236807B2 (en) Singing voice evaluation device and singing voice evaluation system
WO2016039463A1 (en) Acoustic analysis device
Hoy et al. Augmentation of sonic meditation practices: resonance, feedback and interaction through an ecosystemic approach
Lindborg Correlations between acoustic features, personality traits and perception of soundscapes
TWI497483B (en) Singing support devices, methods and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090317