JP2006235201A - Method and device for constituting musical sound contents, and program and recording medium therefor - Google Patents
Method and device for constituting musical sound contents, and program and recording medium therefor Download PDFInfo
- Publication number
- JP2006235201A JP2006235201A JP2005049051A JP2005049051A JP2006235201A JP 2006235201 A JP2006235201 A JP 2006235201A JP 2005049051 A JP2005049051 A JP 2005049051A JP 2005049051 A JP2005049051 A JP 2005049051A JP 2006235201 A JP2006235201 A JP 2006235201A
- Authority
- JP
- Japan
- Prior art keywords
- musical sound
- sound source
- unit
- parameter
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、多数のメロディ素片その他音響素材である楽音ソースを組み合わせ調整し、周囲の環境に適した楽音コンテンツを容易に構成する方法とその装置及び楽音コンテンツ構成プログラムとその記録媒体に関する。 The present invention relates to a method and apparatus for easily configuring a musical sound content suitable for the surrounding environment, a musical sound content composition program, and a recording medium thereof by combining and adjusting musical sound sources that are a large number of melody segments and other acoustic materials.
今日、さまざまな情報端末には多様な楽音コンテンツがマルチメディアコンテンツとして配信され、これら情報端末の各ユーザにおいて使用されている。特に、パソコンによりWeb上にこれら楽音コンテンツをアップロードし、上記マルチメディアコンテンツのプロモーション等が行われている。なお、ここで、楽音コンテンツとしては音声情報も含むものとする。 Today, various musical sound contents are distributed to various information terminals as multimedia contents and are used by users of these information terminals. In particular, these musical sound contents are uploaded on the Web by a personal computer, and the multimedia contents are promoted. Here, the musical sound content includes audio information.
一般に、メロディ素片、音素、楽曲素片等の楽音ソースを楽音コンテンツの構成要素として使用する際、ユーザに対しては音楽の知識や、楽器・編集機器等の操作技術が必要とされ、その上さらに、音楽的センス等も要求されてくるため、例えば「落ち着いた感じの楽曲を作りたい」と思っても、所望の楽音コンテンツを構成することは一般ユーザにとっては非常に困難な作業であった。 In general, when using musical sound sources such as melody segments, phonemes, and musical composition segments as components of musical content, music knowledge and operation techniques for musical instruments and editing equipment are required for users. Furthermore, since a musical sense is also required, for example, even if you want to create a calm music, it is very difficult for general users to compose the desired musical content. It was.
このため、従来の方法では、単にメロディの組み合わせのみではなく、セッションとして複数の演奏者がいる場合に一つ一つの音素(楽音ソース)を並べ替えることによって楽音コンテンツ(すなわち音楽)を構成したり、ユーザの感情に関する音声信号あるいは楽音信号の特徴量が予め設定されている基準値からのズレを求めてユーザの感情を適切に判断する装置(特許文献1「感情認識装置」)、音声信号等から拍(テンポ)の情報を拍の揺らぎの情報と共に詳細に検出し、これによりユーザの拍の揺らぎも含めてMIDIシーケンサとの同期を正しく行う装置(特許文献2「拍検出装置及びそれを用いた同期制御装置」)、オーディオ情報を提供する空間の目的、あるいはその空間が創り出すイメージに適応した音楽を選曲し提供する装置(特許文献3「オーディオ情報提供システム」)、音楽セッションのように即興的な性質上、客観的な情報のみならず、感性的要素を有する主観的な感情の情報等も加味して音楽を構成する装置及びシステム(特許文献4「音楽セッション装置及びシステム」)等が開示されている。 For this reason, in the conventional method, musical content (that is, music) is formed by rearranging individual phonemes (musical sound sources) when there are a plurality of performers as a session, not just a combination of melodies. A device that appropriately determines a user's emotion by obtaining a deviation from a preset reference value of a feature value of a voice signal or a musical sound signal related to the user's emotion (Patent Document 1, “Emotion Recognition Device”), a voice signal, and the like To detect the beat (tempo) information together with the beat fluctuation information in detail, and thereby correctly synchronize with the MIDI sequencer including the fluctuation of the user's beat (Patent Document 2 “Beat detection apparatus and its use Sync control device ”), the purpose of the space to provide audio information, or music adapted to the image created by that space (Patent Document 3 “Audio Information Providing System”), improvised nature like a music session, not only objective information but also subjective emotional information with emotional elements, etc. An apparatus and a system (Patent Document 4, “Music session apparatus and system”) and the like are disclosed.
これらの他、人、騒音、明るさ、気候等の環境情報を用いて楽音信号を制御するものとして、楽音情報を提供する場所の環境条件に応じて発生する楽音データの音量、テンポ、音色、曲目等を制御し設定する装置(特許文献5「音響発生装置」)、あるいは自然光が照射されない部屋において、提供する音楽の選曲及び音質の変化から建物外の環境の変化が判るようにした装置(特許文献6「音楽演奏変更装置」)等、環境条件あるいは人為的要件により提供する音楽を制御する装置あるいは方法について各種開示されている。
さらに、音声信号の基本周波数、パワー、動的特徴量の時間的変化特性等の何れか、またはこれらのフレーム間差分の少なくとも何れかを含む音声特徴量を用いて入力音声が強調状態にあるか平静状態にあるかを求め、この結果から話者に依存しない発話状態判定を行う音声処理方法についての開示もなされている。(特許文献7「音声処理方法及びその方法を使用した装置及びそのプログラム」)
Further, whether the input speech is in an emphasized state using a speech feature amount including any one of the fundamental frequency, power, dynamic feature amount temporal change characteristic of the speech signal, or at least one of these inter-frame differences. There is also disclosed a speech processing method for determining whether the user is in a calm state and determining the speech state independent of the speaker from the result. (Patent Document 7 “Voice processing method, apparatus using the method, and program thereof”)
以上述べたように従来の技術では、楽器やコンピュータ等のスキルのある人にしか楽音コンテンツを構成することができず、楽音コンテンツを容易に構成したいという一般ユーザのニーズに応えることが困難であると言った問題があった。一般ユーザが、自分が思うような楽曲を容易に構成することができるようにするために、例えば、一般ユーザの感性が要求する曲想を簡単なキーワードを入力することによって自動的あるいは容易に音楽コンテンツを構成したり、変更したりすることが可能であるような楽音コンテンツ作成支援ツールは現在に至るまで実現されていなかった。 As described above, with the conventional technology, musical content can be configured only by people with skills such as musical instruments and computers, and it is difficult to meet the needs of general users who want to easily configure musical content. There was a problem that said. In order to make it easy for general users to compose the music they want, for example, music content automatically or easily by inputting simple keywords for the music required by general users' sensibilities. Until now, no musical sound content creation support tool that can configure or change the content has been realized.
このような楽音コンテンツ作成支援ツールを実現するためには、楽音コンテンツを提供する場所および騒音、居合わせる人、気候条件、時刻等の環境情報を勘案し、ユーザの好みも含めて楽音コンテンツ構成のためのパラメータ設定を行ったり、さらにはユーザの感性を反映するための各種情報と設定パラメータに応じて抽出された複数の楽音ソースをミキシングして組み替え処理を行うことにより楽音コンテンツを作成する等の技術が要求される。
本発明は、このような専門的な技術を使用することなく、楽音ソース選択の各種パラメータを用いてユーザが意図する楽音コンテンツを容易に作成可能とする方法、装置及び楽音コンテンツ作成プログラムと記録媒体の提供を目的としている。
In order to realize such a musical sound content creation support tool, it is necessary to configure the musical sound content including the user's preferences, taking into account the environmental information such as the location and noise that provides the musical sound content, people who are present, climatic conditions, time, etc. Such as creating a musical sound content by mixing various musical sound sources extracted according to various information and setting parameters to reflect the user's sensibility and recombination processing Is required.
The present invention provides a method, an apparatus, a musical sound content creation program, and a recording medium that can easily create musical content intended by a user using various parameters for selecting a musical sound source without using such specialized techniques. The purpose is to provide.
上記目的を達成するために、請求項1においては、楽音ソース読み取り手段から読み取り、該読み取られた楽音ソースをボリューム・イコライザ手段により調整し、楽音コンテンツとして音源出力手段により出力する楽音コンテンツ構成方法において、前記楽音コンテンツを提供する場所周辺の環境状態の情報を環境情報取得手段により計測し、前記環境情報取得手段において計測した環境情報を基に、前記ボリューム・イコライザ手段の動作を制御するための1つまたは複数のパラメータをパラメータ抽出手段において抽出し、また、パラメータ設定手段では、外部から入力されたパラメータ生成情報を第1の入力手段を介して取り込み、該入力されたパラメータ生成情報を第1のデータ変換手段を介してデータ形式に変換した後、前記パラメータを生成し、前記生成されたパラメータは前記パラメータ抽出手段に送出され、前記パラメータ抽出手段の出力に応じてパラメータ制御手段が前記ボリューム・イコライザ手段のパラメータを制御することにより前記楽音コンテンツを構成する楽音コンテンツ構成方法について規定している。 In order to achieve the above object, according to claim 1, there is provided a musical sound content composition method of reading from a musical sound source reading means, adjusting the read musical sound source by a volume equalizer means, and outputting as a musical sound content by a sound source output means. 1 for measuring the environmental state information around the place where the musical sound content is provided by the environmental information acquisition means and controlling the operation of the volume equalizer means based on the environmental information measured by the environmental information acquisition means One or a plurality of parameters are extracted by the parameter extracting means, and the parameter setting means takes in parameter generation information input from the outside via the first input means, and the input parameter generation information is read in the first After conversion to the data format through the data conversion means, A meter is generated, and the generated parameters are sent to the parameter extraction means, and the tone content is constituted by the parameter control means controlling the parameters of the volume equalizer means according to the output of the parameter extraction means. It defines the music content composition method.
請求項2においては、請求項1に記載の楽音コンテンツ構成方法において、前記パラメータ設定手段において、前記楽音コンテンツの態様を示す形容詞または形容語を前記第1のデータ変換手段によりデータに変換して前記パラメータ抽出手段に入力する楽音コンテンツ構成方法について規定している。 According to a second aspect of the present invention, in the musical sound content composition method according to the first aspect, in the parameter setting means, an adjective or an adjective indicating an aspect of the musical sound content is converted into data by the first data conversion means, and It defines the composition method of musical sound contents to be input to the parameter extracting means.
請求項3においては、楽音ソース読み取り手段から読み取り、音源出力手段により楽音コンテンツを出力する楽音コンテンツ構成方法において、前記楽音コンテンツを提供する場所周辺の環境状態の情報を環境情報取得手段で計測し、前記環境情報取得手段の計測結果で得られた情報を基に前記楽音ソースを少なくとも1つ以上楽音ソース選択手段において選択し、前記楽音ソース選択手段で選択された楽音ソースをミキシング手段でミキシングして多様な楽音ソースから楽音コンテンツを構成する楽音コンテンツ構成方法について規定している。 According to a third aspect of the present invention, in the musical sound content composition method for reading the musical sound source from the musical sound source reading means and outputting the musical sound content by the sound source output means, the environmental information acquisition means measures the environmental state information around the place where the musical sound content is provided, Based on the information obtained from the measurement result of the environmental information acquisition means, at least one musical sound source is selected by the musical sound source selection means, and the musical sound source selected by the musical sound source selection means is mixed by the mixing means. It stipulates a music content composition method that composes music content from various music sound sources.
請求項4においては、請求項3に記載の楽音コンテンツ構成方法において、前記楽音ソース選択手段は楽音ソース選択方法を入力するための第2の入力手段を有し、該入力手段に入力する該楽音ソース選択方法は前記楽音コンテンツの態様を示す形容詞または形容語をデータ形式に変換する第2のデータ変換手段を介して入力する楽音コンテンツ構成方法について規定している。 4. The musical sound content composition method according to claim 3, wherein the musical sound source selection means includes second input means for inputting a musical sound source selection method, and the musical sound input to the input means. The source selection method stipulates a musical sound content composition method that is input via a second data conversion means for converting an adjective or an adjective indicating the musical sound content into a data format.
請求項5においては、楽音ソース読み取り手段から読み取り、該読み取られた楽音ソースをボリューム・イコライザ手段により調整し、楽音コンテンツとして音源出力手段により出力する楽音コンテンツ構成方法において、前記音源出力手段からの出力を提供する場所周辺の環境状態を環境情報取得手段により計測し、前記楽音ソース読み取り手段からの楽音ソースに対して前記環境情報取得手段により計測された結果を参照して楽音ソース選択手段において前記楽音ソースを選択し、前記環境情報取得手段の出力と、前記楽音ソース選択手段の出力と、で前記ボリューム・イコライザの動作を制御するためのパラメータをパラメータ抽出手段で抽出し、また、前記パラメータはパラメータ設定手段においても生成することが出来、該パラメータ設定手段の出力は前記パラメータ抽出手段に送出された後、前記パラメータ抽出手段出力としてパラメータ制御手段に送出され、前記パラメータ制御手段出力で前記ボリューム・イコライザ手段のパラメータを制御し、前記ボリューム・イコライザ手段の出力と前記楽音ソース選択手段の出力とをミキシング手段でミキシングした後に前記音源出力部に送出することにより、多様な楽音ソースから楽音コンテンツを構成する楽音コンテンツ構成方法について規定している。 6. The musical sound content composition method according to claim 5, wherein the musical sound source reading means reads the musical sound source, adjusts the read musical sound source by the volume equalizer means, and outputs the musical sound content by the sound source output means. The musical sound source selecting means refers to the result measured by the environmental information acquisition means with respect to the musical sound source from the musical sound source reading means. A source is selected, and a parameter for controlling the operation of the volume equalizer is extracted by a parameter extraction unit based on the output of the environment information acquisition unit and the output of the musical sound source selection unit, and the parameter is a parameter It can also be generated by the setting means, and the parameter The output of the data setting means is sent to the parameter extraction means, and then sent to the parameter control means as the output of the parameter extraction means. The parameter of the volume equalizer means is controlled by the output of the parameter control means, and the volume equalizer A music content composition method is defined in which musical content is configured from various musical sound sources by mixing the output of the means and the output of the musical sound source selection means by the mixing means and then sending them to the sound source output section.
請求項6においては、請求項5記載の楽音コンテンツ構成方法において、前記パラメータ設定手段は、第3の入力手段を介して入力されたパラメータ生成情報を第3のデータ変換手段でデータ形式に変換し、また、前記楽音ソース選択手段は、入力された楽音ソース選択方法を入力するための第4の入力手段を有し、該入力手段に入力する該楽音ソース選択方法は前記楽音コンテンツの態様を示す形容詞または形容語をデータに第3のデータ変換手段を介して入力する楽音コンテンツ構成方法について規定している。 According to a sixth aspect of the present invention, in the musical sound content composition method according to the fifth aspect, the parameter setting means converts the parameter generation information input via the third input means into a data format by the third data conversion means. The musical sound source selection means has fourth input means for inputting the inputted musical sound source selection method, and the musical sound source selection method inputted to the input means shows an aspect of the musical sound content. It defines a musical sound content composition method in which an adjective or an adjective is input to data via third data conversion means.
請求項7においては、楽音ソース読み取り部から読み取り、該読み取られた楽音ソースをボリューム・イコライザ部により調整し、楽音コンテンツとして音源出力手段により出力する楽音コンテンツ構成装置において、前記音源出力部の出力を提供する場所周辺の環境状態から前記環境情報を取得するため環境状態の計測を行う環境情報取得部と、前記環境状態取得部で計測された環境情報を基に前記ボリューム・イコライザ部の動作を制御するパラメータを抽出するパラメータ抽出部と、前記抽出されたパラメータで前記ボリューム・イコライザ部に設定されている前記パラメータを制御するためのパラメータ制御部と、前記環境情報及び外部データ発生手段からのデータ入力手段を有するパラメータ設定部と、を有する楽音コンテンツ構成装置について規定している。 According to a seventh aspect of the present invention, there is provided a musical sound content composing apparatus that reads the musical sound source from the musical sound source reading unit, adjusts the read musical sound source by the volume equalizer unit, and outputs the musical sound content by the sound source output means. An environment information acquisition unit that measures the environmental state in order to acquire the environmental information from the environmental state around the location to be provided, and controls the operation of the volume equalizer unit based on the environmental information measured by the environmental state acquisition unit A parameter extraction unit for extracting parameters to be performed, a parameter control unit for controlling the parameters set in the volume equalizer unit with the extracted parameters, and data input from the environment information and external data generation means A musical sound content structure having a parameter setting unit having means It is defined for the system.
請求項8においては、請求項7に記載の楽音コンテンツ構成装置において、前記パラメータ設定は、前記楽音ソース選択のために楽音コンテンツの態様を示す形容詞または形容語をデータ形式に変換するデータ変換手段を介して入力する入力手段を有している楽音コンテンツ構成装置について規定している。 According to claim 8, in the musical sound content composition device according to claim 7, the parameter setting includes data conversion means for converting an adjective or an adjective indicating an aspect of the musical sound content into a data format for the musical sound source selection. A musical sound content constituting apparatus having an input means for inputting via a voice is defined.
請求項9においては、楽音ソース読み取部から読み取り、音源出力部から楽音コンテンツを出力する楽音コンテンツ構成装置において、前記楽音コンテンツを提供する場所周辺の環境状態を計測する環境情報取得部と、前記環境情報取得部の計測結果で得られた情報を基に前記楽音ソースの選択方法を設定する楽音ソース選択部と、前記楽音ソース選択部からの情報により前記楽音ソースをミキシングし、該ミキシング結果の信号を前記音源出力部に送出するミキシング部と、を有する楽音コンテンツ構成装置について規定している。 11. The music information composition device that reads from the music source reading unit and outputs the music content from the sound source output unit according to claim 9, an environment information acquisition unit that measures an environmental state around a place where the music content is provided, and the environment A tone source selection unit that sets a selection method of the tone source based on information obtained from the measurement result of the information acquisition unit, and the tone source is mixed with information from the tone source selection unit, and a signal of the mixing result Is defined as a musical sound content composing device having a mixing unit for sending the sound to the sound source output unit.
請求項10においては、楽音ソース読み取り部から読み取り、該読み取られ取られた楽音ソースをボリューム・イコライザ部により調整し、該調整された楽音ソースを楽音コンテンツとして音源出力部により出力する楽音コンテンツ構成装置において、前記音源出力部からの出力を提供する場所周辺の環境状態を計測する環境情報取得部と、前記環境情報取得部の情報を基に前記楽音ソースを選択する楽音ソース選択部と、前記環境情報取得部による計測結果の情報を基に楽音ソース選択方法及び調整方法を設定するためのパラメータを抽出するパラメータ抽出部と、前記抽出されたパラメータの情報により前記ボリューム・イコライザ部に設定されているパラメータを制御するパラメータ制御部と、前記環境情報及び外部データ発生手段からのデータの入力手段を有し、該環境情報および該入力手段からのデータによりパラメータを設定することが出来るパラメータ設定部と、
前記楽音ソース選択部からの情報により前記読み取られた楽音ソースをミキシングし、前記音源出力部に送出するミキシング部と、を有する楽音コンテンツ構成装置について規定している。
11. The musical sound content composition apparatus according to
A musical content composition apparatus is provided that includes a mixing unit that mixes the read musical sound source according to information from the musical sound source selection unit and sends the mixed musical source to the sound source output unit.
請求項11においては、請求項1乃至請求項6に記載の楽音コンテンツ構成方法をコンピュータを用いて実現する為のプログラムであって、コンピュータに前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツを構成する処理を実行させるための楽音コンテンツ構成プログラムについて規定している。
In
請求項12においては、請求項11に記載のプログラムであって、前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツの構成を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体について規定している。 A twelfth aspect of the present invention is the program according to the eleventh aspect, wherein the parameter is extracted based on the environment information, and data of either an adjective or an adjective associated with the parameter is used as data. It defines a computer-readable recording medium on which a program for executing the composition of musical sound content is converted by a conversion means into a data format.
請求項13においては、請求項1乃至請求項6の何れかに記載の楽音コンテンツ構成方法において、前記環境情報取得手段が存在しない場合は、乱数発生器により乱数値を発生し、該乱数値を仮の環境情報の値とし、前記乱数値と予め設定されている閾値との大小関係を楽音ソース選択判定処理において比較し、前記乱数値が前記閾値に対して予め定められた範囲内に収斂するまで、前記乱数値発生から前記楽音ソース選択判定処理までの一連の処理を繰り返す楽音コンテンツ構成方法について規定している。 According to a thirteenth aspect of the present invention, in the musical sound content composition method according to any one of the first to sixth aspects, when the environment information acquisition means does not exist, a random number value is generated by a random number generator, and the random number value is obtained. As a value of temporary environment information, the magnitude relationship between the random number value and a preset threshold value is compared in a musical sound source selection determination process, and the random value value converges within a predetermined range with respect to the threshold value. Up to this point, a music content composition method that repeats a series of processes from the generation of the random value to the music source selection determination process has been defined.
前記本発明による楽音コンテンツ構成方法では、楽音コンテンツを提供する場所周辺の環境状態を考慮したパラメータを、環境状態を測定することにより自動的に生成することを可能にしており、このパラメータを用いて多様な楽音ソースから予め設定されている選択方法を基に選択して組み合わせるため、特別な音楽的スキルがなくとも目的とする楽音コンテンツの構成を容易なものにしている。 In the musical sound content composition method according to the present invention, it is possible to automatically generate a parameter in consideration of the environmental condition around the place where the musical sound content is provided by measuring the environmental condition. Since a selection is made from various musical sound sources based on a selection method set in advance, the structure of the target musical sound content is facilitated even without special musical skills.
さらに上記パラメータの選択に際して、予め設定されている選択方法に含まれない楽音ソースが必要となった場合においても、各種選択方法に対応付けられている形容詞または形容語の入力を可能としているため、ユーザはこれら用語を入力するのみで、より容易に、より的確に意図する楽音コンテンツを構成することが出来る。また、読み出された多種多様な楽音ソースを周辺の環境状態に応じてミキシング処理を行うことにより組み替える方法とすることで新たな効果を有する楽音コンテンツを構成することを可能としている。 Furthermore, when selecting a parameter, even if a musical sound source that is not included in the preset selection method is required, it is possible to input adjectives or adjectives associated with various selection methods. The user can configure the intended musical sound content more easily and more accurately by only inputting these terms. In addition, it is possible to configure a musical sound content having a new effect by using a method of rearranging various read musical sound sources by performing a mixing process according to the surrounding environmental conditions.
(実施の形態1)
図1に本発明による楽音コンテンツ構成装置の第1の実施の形態であるブロック図を示す。図1において、楽音ソース読み取り部11は予め各種多様な楽音ソースが登録されているファイル装置である。この読み込まれている多種多様な楽音ソースの中から、適宜読み取り、さらにボリューム・イコライザ部12により、読み取られたそれぞれの楽音ソースの信号レベル、及び全体の信号レベルの何れかまたは両方の信号レベルが調整される。これにより提供すべき音源としての楽音コンテンツが構成され、音源出力部13を介して出力される。
(Embodiment 1)
FIG. 1 is a block diagram showing a first embodiment of a musical sound content constituting apparatus according to the present invention. In FIG. 1, a musical tone
ここで、図1における、楽音ソース読み取り部11、ボリューム・イコライザ部12および音源出力部13で構成された楽音コンテンツ選択調整出力部10は従来公知の構成である。本発明においては、環境情報取得部14により計測された環境条件に応じてボリュームイコライザ部12の動作を設定するパラメータ(パラメータの内容については後述する。)をパラメータ抽出部15で抽出した後、パラメータ制御部16によりボリューム・イコライザ部12のパラメータを制御し、このようにして楽音コンテンツ選択調整出力部10の動作を制御することにより楽音コンテンツ(音源)として出力することを特徴としている。
Here, the musical sound content selection
ここで、パラメータ設定部17は、パラメータ抽出部15出力に含まれない新しいパラメータを生成する入力手段を有しており、使用者の操作により入力された外部からの信号を図示しないがデータ変換部でデータ形式に変換してパラメータの設定を可能にしている。パラメータ設定部17においては、環境情報取得部14からの情報および楽音ソース読み取り部11からの楽音ソース信号等を参照しながら設定するため、楽音ソース読み取り部11とパラメータ設定部17、環境情報取得部14とパラメータ設定部17とはそれぞれ対話的に動作するように構成されている。なお、楽音ソース読み取り部に楽音ソースを追加する際は、パラメータ設定部17の例えばキーボードを使用者が操作する等の入力手段を介して入力処理が行われる。これにより、環境の変化に応じて自由に楽音コンテンツに変化を与えることが出来、新たな楽音コンテンツとして出力することを可能にしている。なお、楽音ソース読み取り部11に楽音ソースを追加する際はパラメータ設定部17の入力手段を介して行われる。
Here, the
この構成により、多種多様な楽音ソースを周辺の環境状態に適応した形に成形し、新たな楽音コンテンツとして出力する。なお、上記の環境条件とは、楽音コンテンツが提供される空間(場所)周辺における人数、人の動き、騒音レベル、気候条件、時刻等の環境状態を指す。 With this configuration, a wide variety of musical sound sources are formed into a shape adapted to the surrounding environmental conditions and output as new musical sound contents. The environmental conditions mentioned above refer to environmental conditions such as the number of people, the movement of people, the noise level, the climatic conditions, and the time around the space (place) where the musical sound content is provided.
上記環境状態の具体的な例として、例えば、環境情報取得部14にカメラを用いた場合、その出力である画像信号に対して認識処理を行うことにより、その場にいる楽音コンテンツ提供の対象となる通行者の人数及びそれらの動きに関する情報を取得することが出来る。その他、カメラ以外に、例えば環境情報取得部14にIDタグのリーダ(読取装置)、赤外線読取装置、BLUETOOTH等を用いることにより、楽音コンテンツ提供場所周辺に存在する人や物の数量あるいは動きを把握したり、さらにはこれらの人が携行しているIDタグ等に記録されている個人情報あるいは個人に関する趣味嗜好等の属性情報を取得することも可能となる。
As a specific example of the environmental state, for example, when a camera is used for the environmental
また、環境情報取得部14は、上記のように人に関する情報を取得するだけでなく、時刻を取得する時計や、気象情報を取得するための温度計、湿度計、あるいは、ネットワーク上の天気予報など、さまざまなメディアからその場の状況の情報を取得する手段を備えることも可能である。これらの構成により、複数の環境情報を取得する手段から多様で、かつ、より的確なその場の状態を把握し、複数の楽音ソースから新たな楽音コンテンツを構成することを可能にする。
The environment
このような構成とすることにより、例えば、環境情報取得部14が取得した情報から設定されるパラメータをパラメータ抽出部15で抽出し、このパラメータを用いてパラメータ制御部16を介してボリューム・イコライザ部12のパラメータを制御する。ボリューム・イコライザ部12においては最終的に提供する楽音コンテンツのボリュームを最適化させたり、あるいは楽音ソース読み取り部11から読み取られた楽音ソースそれぞれの間の信号レベルのバランスを調整することにより楽音コンテンツの音色や音質を変化させたり、さらには、楽音コンテンツにエコー等のエフェクトをかける処理を施して楽音コンテンツを提供する場(空間)の状況にあわせたものとし、音源出力部13を介して出力される。
With such a configuration, for example, a parameter set from the information acquired by the environment
ここで、パラメータ抽出部15においては、環境情報取得部14で収集されるか、あるいはパラメータ設定部17で設定されるパラメータ決定要因となる情報を用いて、予め定められた関係式(後述の数1式または数2乃至数4式)により各種パラメータを算出する演算が行われる。これにより得られるパラメータを用いて、出力する楽音コンテンツを部分的に重み付けをしたりすることが可能である。例えば、ある楽音ソースの音圧をあげて、他方の楽音ソースの音圧を下げ、さらに他の楽音ソースを強調したり、音色を変更して特色を持たせたり、またある楽音ソースにエコー等のエフェクトをかけたりすることを可能にすることが出来る。
Here, the
また、パラメータ設定部17は、前記のように外部データ発生手段(例えばパターン発生器等)から情報を入力するか、あるいはキーボード等を介して使用者が操作して入力する入力手段を有しており、この入力手段に入力される情報である音楽コンテンツの態様を示す形容詞または形容語をデータ変換手段によりデータ形式に変換してパラメータ生成処理を行い、これにより得られたパラメータをパラメータ抽出部15を経由してパラメータ制御部に送出する。これにより、さらに容易に新たな楽音コンテンツを構成することができる。このような、形容詞または形容語の例として、例えば、
あたたかい 派手な 軽やかな
かたい 複雑な あたらしい
はやい にぎやかな 変化に富んだ
興奮した 美しい 男性的な
積極的な 能動的な 自然な
まとまった はっきりした 現実的な
趣味的な 個性的な 目立つ
便利な 手軽な 面白い
つめたい 地味な 重々しい
やわらかい 単純な 古い
おそい 落ち着いた 単調な
冷静な 醜い 女性的な
消極的な 受動的な 不自然な
ばらばらな ぼんやりした 幻想的な
実用的な 平凡な 目立たない
不便な 煩雑な つまらない
等を挙げることが出来る。
Further, the
Warm Flashy Light Hard Complex New New Quick Lively Variety Excited Beautiful Masculine Active Active Natural Group Clear Realistic Hobby Personality Conspicuous Useful Handy Funny I want to squeeze sober heavy soft simple old calm calm monotonous calm ugly feminine passive passive unnatural loose fantasy fantastic practical mediocre inconspicuous inconvenient cumbersome boring I can list them.
また、例えば店舗等で用いる広告用の音楽コンテンツなどを想定した形容詞・形容語として
高級感のある
安価な感じの
大人っぽい
子供っぽい
等を加えても良い。これら形容詞または形容語の入力に対してはデータ変換部を内蔵し、対応する符号に変換する気候としておくことにより目的は達成される。
Further, for example, an adjective / adjective that assumes music content for advertisement used in a store or the like may be added to a high-class, inexpensive, adult-like, child-like, or the like. These adjectives or adjectives can be input with a built-in data converter, and the object can be achieved by setting the climate to convert to a corresponding code.
また、パラメータ設定部17に、前記「特許文献7」に記載の方法及びプログラムを用いて楽音ソースに関する特徴量を抽出し、これをパラメータとして用いることも可能である。
Further, the
(実施の形態2)
図2は本発明における第2の実施の形態としてのブロック図である。すなわち、環境情報取得部14からの情報を選択条件として楽音ソース読み取り部11から楽音ソース選択部21に楽音ソースを選択して読み込む。楽音ソース選択部21で選択された複数の楽音ソースをミキシング部22でミキシング処理を行い、これにより多様な楽音ソースから新たな楽音コンテンツを生成し、音源出力部13を介して出力する構成である。ここで、ミキシング処理とは、入力された複数の楽音ソースの組み合わせ、あるいはそれぞれの楽音ソースの信号レベルの比を操作して各種の楽音コンテンツを生成する処理を言う。
(Embodiment 2)
FIG. 2 is a block diagram as a second embodiment of the present invention. In other words, the musical sound source is selected and read from the musical sound
この構成により、多様な楽音ソースを、楽音コンテンツを提供する場所周辺の環境状態に応じてミキシングして、新たな楽音コンテンツを出力することが可能となる。また、環境情報取得部14を複数設置し、これにより多様でかつ、より的確な環境情報を取得し、その場所の環境に適した楽音ソースを用いてミキシングし、新たな楽音コンテンツを生成することを可能にしている。すなわち、これら環境情報取得部14が取得した結果により、楽音ソース選択部21においてその場所の環境に適した楽音ソースを選択し、ミキシング部22により新たにミキシングされた楽音コンテンツを構成することが可能となる。
With this configuration, it is possible to output various musical sound sources by mixing various musical sound sources according to the environmental conditions around the place where the musical sound content is provided. In addition, a plurality of environmental
また、図2の構成において、楽音ソース選択部21において予め設定されていない選択方法を別途設定し得る機能を持たせるため、図示しないが、例えばデータ発生器あるいは使用者によって操作されるキーボード等の入力手段を介して入力された外部からの楽音ソース選択方法に関する情報はデータ変換部によりデータ形式に変換され、このデータを用いて新しい楽音ソース選択方法を設定することが出来る。これにより、環境情報取得部14の出力を用いての選択方法では得られなかった新たな選択方法を設定することが出来る。
In addition, in the configuration of FIG. 2, in order to provide a function that can separately set a selection method that is not preset in the musical sound
楽音ソース選択法としては楽音ソース選択部21で予め定められた数式を用いて楽音ソースを算出する。この構成により、複数の数式(例えば、後述の数2式乃至数4式)を用いて、パラメータを決定する変数(要因)に重み付けをした結果を楽音ソースの選択に反映させることが出来る。
As a musical sound source selection method, a musical sound source is calculated using a mathematical formula predetermined by the musical sound
例えば、前記「特許文献7」において開示されている音声特徴量に相当する楽音特徴量から楽音ソース設定時には予想していなかった新しい楽音ソースを図示しないが例えばマイクロフォンを介して入力することも可能とし、これにより楽音ソースをミキシングする範囲を拡大することも出来る。 For example, a new musical sound source that is not anticipated at the time of setting the musical sound source from the musical sound characteristic amount corresponding to the voice characteristic amount disclosed in the above-mentioned “Patent Document 7” can be input via, for example, a microphone (not shown). This also expands the range for mixing musical sound sources.
さらに、楽音ソース選択部21において、前記外部からの入力手段への入力データを予め設定されている楽音ソース選択方法に関連付けられた形容詞または形容語に置き換え、これら形容詞または形容語を入力し、符号化して楽音ソース選択部21に取り込むことにより新たな楽音コンテンツをさらに容易に構成することが可能になるという効果がある。これに使用する形容詞または形容語の例は前述のとおりである。
Further, the musical sound
楽音ソース選択部21においては、楽音ソースの楽音特徴量から楽音ソースの選択方法の手順として設定する機能を備えている。これにより、楽音特徴量を抽出し、その結果を楽音ソースの選択方法として用いることが出来る。
The musical sound
(実施の形態3)
図3は本発明における第3の実施の形態における構成を示すブロック図である。楽音ソースであるメロディ素片の類は楽音ソース読み取り部11から読み取られ、この読み取られた楽音ソースはボリューム・イコライザ部12において各楽音ソースの信号レベル、あるいは楽音ソース全体の信号レベルに関してそれぞれ調整される。
(Embodiment 3)
FIG. 3 is a block diagram showing a configuration according to the third embodiment of the present invention. The type of melody segment that is a musical sound source is read from the musical sound
この調整された楽音ソースから生成された音源となる楽音コンテンツ(音源)を、音源出力部13を介して出力する構成は実施の形態1で述べた従来例と同様であるが、本実施の形態3の特徴とするところは、ボリューム・イコライザ部12で信号レベル調整を行った楽音ソースと、実施の形態2で示した楽音ソース選択部21の出力とをミキシング部22でミキシングして各楽音ソースの組み合わせの組み換えを行うことによりさらに多様な楽音コンテンツの形成を可能にしていることである。
The configuration for outputting the musical sound content (sound source) as the sound source generated from the adjusted musical sound source via the sound
図3の装置の動作は以下のように説明される。楽音ソース読み取り部11から楽音ソースは読み取られボリュームイコライザ部12に入力されるが、ここで、楽音ソース選択部21は環境情報取得部14からの環境状態の計測結果により選択する楽音ソースを最適化するために環境情報取得部14と対話的に動作する。また、パラメータ設定部17の場合も、同様にパラメータ設定部17経由でパラメータを設定する場合は楽音ソース読み取り部11と対話的に処理して最適パラメータを求めてパラメータ抽出部12に送出する。
The operation of the apparatus of FIG. 3 is described as follows. The musical sound source is read from the musical sound
また、ボリューム・イコライザ部12の動作は、パラメータ抽出部15において抽出されたパラメータを、パラメータ制御部16によりボリューム・イコライザ部12の動作を設定しているパラメータを制御することにより設定される。ここで、パラメータ抽出部15においては、環境情報取得部14の出力と、楽音ソース選択部21の出力と、パラメータ設定部17の出力と、を用いてパラメータ抽出部15からパラメータを抽出し、抽出されたパラメータによりパラメータ制御部16を経由してボリューム・イコライザ部12を制御する。これにより得られたボリューム・イコライザ部12の出力は楽音ソース選択部21の出力と共にミキシング部22に入力されミキシング処理される。このようにして得られたミキシング部22出力は、多様な楽音ソースを周辺の環境状態に応じた新たな楽音コンテンツとして音源出力部13により出力される。
Further, the operation of the
以上に示したような装置を用いて、楽音コンテンツを構成する場合の例として、例えば通行者が表示ディスプレイの前を通行する際、
ディスプレイに注目することなく通過する場合、
ディスプレイに注目しながら通過する場合、
ディスプレイに注目し立ち止まる場合
の3つの場合が想定される。このような3つの場合については、例えば、装置側のカメラ出力を画像解析して視線の方向を分析することにより弁別できる。
As an example of configuring musical sound content using a device as described above, for example, when a passerby passes in front of a display,
If you pass without paying attention to the display,
If you pass while paying attention to the display,
Three cases are assumed in which the display is focused and stopped. Such three cases can be discriminated by analyzing the direction of the line of sight by analyzing the camera output on the apparatus side, for example.
まず、ディスプレイに注目することなく通過する第1の場合を考えると、この場合は単に前を通過するのみであるから、例えば、朝は音量を下げて楽音を再生したり、楽音データから、予め静かなメロディ、うるさいメロディ、楽しいメロディ、悲しいメロディ等を分類しておき静かな、落ち着いた、等の形容詞または形容語に対応するメロディを組み合わせて楽音を構成することが可能である。 First, considering the first case of passing without paying attention to the display, in this case, only the front is passed. For example, in the morning, the sound is reduced by lowering the volume, or from the sound data in advance. It is possible to classify quiet melody, noisy melody, fun melody, sad melody, etc., and compose musical sounds by combining melody corresponding to adjectives or adjectives such as quiet and calm.
また、ディスプレイに注目しながら通過する第2の場合を考えると、この場合、昼間は音量を上げて、より注目を集めるようにポップで明るいメロディを、前記と同様に形容詞または形容語との対応で選択し、組み合わせることによって楽音を構成することが可能である。 Considering the second case of passing while paying attention to the display, in this case, the volume is increased during the daytime, and a pop and bright melody is collected to attract more attention. It is possible to compose a musical tone by selecting and combining them.
また、ディスプレイに注目し立ち止まる第3の場合を考えると、この場合、音量は中程度、表示デイスブレイの表示された内容の持つイメージに合い、内容を損なわないように形容詞、形容語を選択し、その対応でメロディを組み合わせることによって楽音を構成することが可能である。 Considering the third case where attention is paid to the display and stops, in this case, the volume is medium, and it matches the image of the displayed contents of the display display, and selects adjectives and adjectives so as not to damage the contents. It is possible to compose a musical sound by combining melody with the correspondence.
さらに、このような装置を用いて、楽音コンテンツを構成する場合の例として、表示ディスプレイの前に、一人しかいない場合と、数名いる場合と、集団で沢山の人がいる場合と、が考えられる。 Furthermore, as an example of constructing musical sound content using such a device, there are cases where there is only one person in front of the display display, there are several persons, and there are many people in the group. It is done.
まず、一人しかいない場合は、環境情報取得部14を通じて取得した対象者が携行しているIDタグ等に記録されている個人の趣味、嗜好等の各種属性に基づき、属性情報を反映することによってその個人の好みに近い楽音を構成することが可能である。
First, when there is only one person, by reflecting attribute information based on various attributes such as personal hobbies and preferences recorded in an ID tag carried by the target person acquired through the environmental
また、複数名いる場合は、環境情報取得部14を通じて取得した個人情報を必要数選択し、その属性情報をランダムに組み替えることによって一人でいるときとは違った新しいイメージの含まれる楽音を構成することが可能である。
In addition, when there are a plurality of persons, a necessary number of personal information acquired through the environment
また、グループを形成している集団でいる場合は、例えばそのときの時刻を反映し、朝ならヒーリングなどに象徴される「癒し、静かな」などの形容詞、形容語を反映した楽音を構成し、昼なら活動的なイメージの「元気な、明るい」などの形容詞、形容語を反映した楽音を構成し、夜なら「大人っぽい、落ち着いた」などの形容詞または形容語を反映した楽音を構成することが可能である。 If you are a group that forms a group, for example, it reflects the time of the day, and in the morning it constitutes a musical sound that reflects adjectives and adjectives such as `` healing and quiet '' symbolized by healing. , Composed of adjectives and adjectives such as “Energetic and Bright” in the active image at noon, and composed of adjectives and adjectives such as “adult and calm” at night Is possible.
この際、設置場所を考慮し、駅(通路・駅構内)、店舗(飲食店・宝飾店・服飾店など)、様々な場所の特性にあった形容詞または形容語を選択することも可能である。 In this case, it is also possible to select adjectives or adjectives that match the characteristics of the station (passage / station premises), stores (restaurants, jewelry stores, clothing stores, etc.), and various locations, taking into account the installation location. .
(実施の形態4)
以下、パラメータの抽出・設定の手順について説明する。
図1乃至図3に記載の環境情報取得部14で収集される環境情報は、図4に示す「人」に関するパラメータ設定要因となる情報と、図5に示す「気候」に関するパラメータ設定要因となる情報と、図6に示す「時刻」に関するパラメータ設定要因となる情報とに大別される。
(Embodiment 4)
A procedure for parameter extraction / setting will be described below.
The environment information collected by the environment
図4の「人」に関する情報は、カメラ410に対して、物体認識処理411により人数nを把握し、物体の動きに関するベクトル抽出処理412により「人」の動きmを求め、物体のズーム率及び三角測定処理413により人までの距離(遠近)dを算出することにより、人数n、動きm、距離(遠近)dに関する情報を得、カメラ410がない場合、あるいはさらに多くの情報を得るために(無線タグ/PHS/GPS)420の何れかを用いて通過測定処理を行うことにより目標とする地域内を移動する人数nおよび、位置測定処理により所定の位置から「人」までの距離(遠近)dの情報を得、マイクロフォン430により音圧測定431を行い周囲騒音の音圧pのレベルに関する情報を得、必要ならば匂いセンサ440により匂い測定処理により匂いsの情報を、それぞれ取得し出力する。
For the information on “person” in FIG. 4, the
図5の「気候」に関する情報は、カメラ410から照度測定処理414を行い明るさlの情報を、色相測定処理により色相r,g,bの情報を、温度センサ520により気温aの情報を、湿度センサ530により湿度hの情報を、さらにカメラ410を使用しない場合の別手段として照度センサ540から明るさlの情報を、風速センサ550により風速wの情報を、それぞれ取得し出力する。
The information on “climate” in FIG. 5 is obtained by performing
図6の「時刻」に関する情報は、時計610より時刻tを取得し出力する。
Information relating to “time” in FIG. 6 is obtained by obtaining the time t from the
図1及び図3記載のパラメータ抽出部15では、上記環境情報取得部14からの入力により、以下の(数1)式を用いてパラメータPを算出する。
In the
パラメータ設定部17では、例えば環境情報取得部14が存在しない場合、あるいはパラメータ抽出部15で抽出できなかったパラメータがある場合には目的とするパラメータあるいは仮のパラメータを外部でパターン発生器等の手段により生成し、これをパラメータ設定部17に入力手段を介して入力する。この入力手段としては、前記のようにデータ発生器あるいは使用者によって操作されるキーボード等の入力手段の他にマイクロフォンによる音声入力も可能である。この場合はマイクロフォンからは例えば新しい楽音ソースを入力し、これをデータ化して楽音ソース読み取り部11にこれを記録することになる。これによって、より多くの場面の環境に的確に対応することが出来るようになる。
In the
この処理の流れを、環境情報取得部14が存在する場合と存在しない場合とについて図7に示す。図7において、外部からの入力及び環境情報取得部14の何れかまたは両者が共に存在しない場合(S100およびS101が共に“NO”)には、楽音ソース読み取り部11から楽音情報を取得し(S104)、ユーザからの入力があり(S100“YES”)、環境情報取得部14が存在し(S101“Yes”)、かつマイクロフォンが存在する場合(S102“YES”)にはマイクロフォンから楽音情報を取得し(S103)、マイクロフォンが存在しない場合(S102“NO”)は楽音ソース読み取り部11から楽音ソース情報を読み込む(S104)。これにより得られた楽音ソース情報を前記「特許文献7」に記載の式(11)及び(12)を用いてPSemp及びPSnrm値を算出し(S105)、楽音ソースの特徴量Peを
This processing flow is shown in FIG. 7 for the case where the environment
また、パラメータ設定部17にパラメータに関連付けられた形容詞または形容語を入力した場合、それぞれの形容語を例えば、
人;「派手な、かたい、複雑な、にぎやかな、興奮した、美しい、男性的な、積極的な、能動的な、現実的な、趣味的な、個性的な、目立つ、便利な、手軽な、面白い、まとまった,はっきりした、地味な、重々しい、やわらかい、単純な、落ち着いた、単調な、冷静な、醜い、女性的な、消極的な、受動的な、不自然な、ばらばらな、ぼんやりした、幻想的な、実用的な、平凡な、目立たない、不便な、煩雑な、つまらない」
気侯;「あたたかい、変化に富んだ、自然な、つめたい」
時刻;「軽やかな、あたらしい、はやい、古い、おそい」
と分類し、因子分析を行って因子得点を算出し、これにより図8に示す得点表を作成し、この得点表において予め定められた基準得点以上の得点から(例えば、図8における太字部分)因子を導出する。図8においては2つの因子の場合である。得られた因子得点の数値は図1及び図3記載のパラメータ抽出部15に渡され、各因子得点に対応する要因(n,m,d,‥‥等)に対応する係数kijに代入されて上記(数2)(数3)(数4)の各式において各パラメータPf、Pc、Ptを算出する。
When an adjective or an adjective associated with a parameter is input to the
Person; “fancy, hard, complex, lively, excited, beautiful, masculine, aggressive, active, realistic, hobby, individual, conspicuous, convenient, convenient Naughty, funny, organized, clear, sober, heavy, soft, simple, calm, monotonous, calm, ugly, feminine, passive, passive, unnatural, disjointed , Hazy, fantastic, practical, mediocre, unobtrusive, inconvenient, cumbersome, boring "
Keen; “Want to be warm, varied, natural, want to pinch”
Time: “Light, new, fast, old, slow”
The factor score is calculated by performing factor analysis, thereby creating the score table shown in FIG. 8, and from the score higher than the reference score predetermined in this score table (for example, bold portion in FIG. 8) Deriving factors. FIG. 8 shows the case of two factors. The obtained numerical value of the factor score is passed to the
図1及び図3記載のパラメータ制御部16では、パラメータ抽出部15から得られた各パラメータを基に、ボリューム・イコライザ部12のパラメータを制御する。
図2及び図3に記載の楽音ソース選択部21での処理の流れを図9に示す。環境情報取得部14が存在する場合(S200“YES”)、図1乃至図3に記載の環境情報取得部14より環境情報を取得する(S202)。また、環境情報取得部14が存在しない場合(S200“NO”)、これは図7における(S101“NO”)の場合に相当しているが、この場合は図示しないが内蔵の乱数発生部により乱数を発生し、この乱数値を仮の環境情報の値とする(S201)。次に処理ステップS201または処理ステップS202において取得した値を、予め設定した“YES”または“NO”を判定する閾値Thを用いて、楽音ソース選択判定処理を行う(S203)。すなわち、前記乱数値と予め設定されている閾値との大小関係を楽音ソース選択判定処理において比較する。ここで、最初に設定した乱数値が閾値Thに対して予め定められた範囲内に至らない場合は、“YES”が得られるまで処理ステップ「乱数値を発生(S201)」から「楽音ソース選択判定処理(S203)」までのステップを繰り返す。この閾値Thに対する範囲内に収まったところでこの結果を受け、楽音ソース読み取り部11において、該当する任意の楽音ソースを複数選択する(S204)。
The
FIG. 9 shows the flow of processing in the tone
図2及び図3記載のミキシング部22では、楽音ソース選択部21により選択された複数の楽音ソースをミキシングし、音源出力部13に渡す。
2 and 3 mixes a plurality of tone sources selected by the tone
以上述べたように、本発明においては、コンピュータに前記環境情報により前記パラメータの抽出と、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツを構成する処理を実行させるための楽音コンテンツ構成プログラムを含むものである。 As described above, in the present invention, the computer extracts the parameters based on the environment information, and based on the parameters, either adjectives or adjectives associated with the parameters are converted into data by the data conversion means. It includes a musical sound content composition program for executing processing for constructing musical sound content by converting into a format.
また、コンピュータに上記プログラム、すなわち、前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに形容詞または形容語の何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツの構成を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体も含むものである。 Further, the computer extracts the parameters based on the program, that is, the environment information, and converts either adjective or adjective data into the data format by the data conversion means based on the parameters. It also includes a computer-readable recording medium that records a program for executing the configuration of the musical sound content.
10:楽音コンテンツ選択調整出力部
11:楽音ソース読み取り部 12:ボリューム・イコライザ部
13:音源出力部 14:環境情報取得部
15:パラメータ抽出部 16:パラメータ制御部
17:パラメータ設定部 21:楽音ソース選択部
22:ミキシング部
10: Music content selection adjustment output unit 11: Music source reading unit 12: Volume equalizer unit 13: Sound source output unit 14: Environment information acquisition unit 15: Parameter extraction unit 16: Parameter control unit 17: Parameter setting unit 21: Music source Selection unit 22: Mixing unit
Claims (13)
前記楽音コンテンツを提供する場所周辺の環境状態の情報を環境情報取得手段により計測し、
前記環境情報取得手段において計測した環境情報を基に、前記ボリューム・イコライザ手段の動作を制御するための1つまたは複数のパラメータをパラメータ抽出手段において抽出し、
また、パラメータ設定手段では、外部から入力されたパラメータ生成情報を第1の入力手段を介して取り込み、該入力されたパラメータ生成情報を第1のデータ変換手段を介してデータ形式に変換した後、前記パラメータを生成し、
前記生成されたパラメータは前記パラメータ抽出手段に送出され、
前記パラメータ抽出手段の出力に応じてパラメータ制御手段が前記ボリューム・イコライザ手段のパラメータを制御することにより前記楽音コンテンツを構成する
ことを特徴とする楽音コンテンツ構成方法。 In a music content configuration method of reading from a musical sound source reading means, adjusting the read musical sound source by a volume equalizer means, and outputting the musical sound content by a sound source output means,
Measure environmental information by the environmental information acquisition means around the place where the musical sound content is provided,
Based on the environment information measured by the environment information acquisition means, one or more parameters for controlling the operation of the volume equalizer means are extracted by the parameter extraction means,
Further, the parameter setting means takes in the parameter generation information input from the outside through the first input means, converts the input parameter generation information into the data format through the first data conversion means, Generating the parameters,
The generated parameter is sent to the parameter extraction means,
A musical sound content composition method, wherein the musical sound content is constructed by a parameter control means controlling a parameter of the volume equalizer means in accordance with an output of the parameter extraction means.
前記パラメータ設定手段において、前記楽音コンテンツの態様を示す形容詞または形容語を前記第1のデータ変換手段によりデータに変換して前記パラメータ抽出手段に入力する
ことを特徴とする楽音コンテンツ構成方法。 In the musical sound content composition method according to claim 1,
The musical sound content composition method, wherein the parameter setting means converts an adjective or an adjective indicating an aspect of the musical sound content into data by the first data conversion means and inputs the data to the parameter extraction means.
前記楽音コンテンツを提供する場所周辺の環境状態の情報を環境情報取得手段で計測し、
前記環境情報取得手段の計測結果で得られた情報を基に前記楽音ソースを少なくとも1つ以上楽音ソース選択手段において選択し、
前記楽音ソース選択手段で選択された楽音ソースをミキシング手段でミキシングして多様な楽音ソースから楽音コンテンツを構成する
ことを特徴とする楽音コンテンツ構成方法。 In the musical sound content composition method of reading from the musical sound source reading means and outputting the musical sound content by the sound source output means,
Measuring environmental information around the place where the musical sound content is provided by an environmental information acquisition means,
Based on the information obtained from the measurement result of the environmental information acquisition means, at least one musical sound source is selected by the musical sound source selection means,
A musical sound content composition method comprising: constructing musical sound contents from various musical sound sources by mixing musical sound sources selected by the musical sound source selecting means with mixing means.
前記楽音ソース選択手段は楽音ソース選択方法を入力するための第2の入力手段を有し、該入力手段に入力する該楽音ソース選択方法は前記楽音コンテンツの態様を示す形容詞または形容語をデータ形式に変換する第2のデータ変換手段を介して入力する
ことを特徴とする楽音コンテンツ構成方法。 In the musical sound content composition method according to claim 3,
The musical sound source selection means has a second input means for inputting a musical sound source selection method, and the musical sound source selection method input to the input means has an adjective or an adjective indicating an aspect of the musical sound content as a data format. A musical sound content composition method, characterized in that it is inputted via second data conversion means for converting into a music data.
前記音源出力手段からの出力を提供する場所周辺の環境状態を環境情報取得手段により計測し、
前記楽音ソース読み取り手段からの楽音ソースに対して前記環境情報取得手段により計測された結果を参照して楽音ソース選択手段において前記楽音ソースを選択し、
前記環境情報取得手段の出力と、前記楽音ソース選択手段の出力と、で前記ボリューム・イコライザの動作を制御するためのパラメータをパラメータ抽出手段で抽出し、
また、前記パラメータはパラメータ設定手段においても生成することが出来、該パラメータ設定手段の出力は前記パラメータ抽出手段に送出された後、前記パラメータ抽出手段出力としてパラメータ制御手段に送出され、前記パラメータ制御手段出力で前記ボリューム・イコライザ手段のパラメータを制御し、
前記ボリューム・イコライザ手段の出力と前記楽音ソース選択手段の出力とをミキシング手段でミキシングした後に前記音源出力部に送出することにより、多様な楽音ソースから楽音コンテンツを構成することを特徴とする楽音コンテンツ構成方法。 In a music content configuration method of reading from a musical sound source reading means, adjusting the read musical sound source by a volume equalizer means, and outputting the musical sound content by a sound source output means,
The environmental information around the place providing the output from the sound source output means is measured by the environmental information acquisition means,
Selecting the musical sound source in the musical sound source selecting means with reference to the result measured by the environmental information acquisition means for the musical sound source from the musical sound source reading means;
Parameters for controlling the operation of the volume equalizer at the output of the environment information acquisition means and the output of the musical sound source selection means are extracted by a parameter extraction means,
The parameter can also be generated by the parameter setting means, and the output of the parameter setting means is sent to the parameter extraction means and then sent to the parameter control means as the parameter extraction means output, and the parameter control means Control the parameters of the volume equalizer means at the output,
The musical sound content is composed of various musical sound sources by mixing the output of the volume equalizer unit and the output of the musical sound source selecting unit by the mixing unit and then sending the mixed sound to the sound source output unit. Configuration method.
前記パラメータ設定手段は、第3の入力手段を介して入力されたパラメータ生成情報を第3のデータ変換手段でデータ形式に変換し、
また、前記楽音ソース選択手段は、入力された楽音ソース選択方法を入力するための第4の入力手段を有し、該入力手段に入力する該楽音ソース選択方法は前記楽音コンテンツの態様を示す形容詞または形容語をデータに第3のデータ変換手段を介して入力する
ことを特徴とする楽音コンテンツ構成方法。 6. The musical sound content composition method according to claim 5,
The parameter setting means converts the parameter generation information input via the third input means into a data format by the third data conversion means,
The musical sound source selection means has fourth input means for inputting the inputted musical sound source selection method, and the musical sound source selection method input to the input means is an adjective indicating an aspect of the musical sound content. Alternatively, an adjective word is input to the data through the third data conversion means, and the musical sound content composition method.
前記音源出力部の出力を提供する場所周辺の環境状態から前記環境情報を取得するため環境状態の計測を行う環境情報取得部と、
前記環境状態取得部で計測された環境情報を基に前記ボリューム・イコライザ部の動作を制御するパラメータを抽出するパラメータ抽出部と、
前記抽出されたパラメータで前記ボリューム・イコライザ部に設定されている前記パラメータを制御するためのパラメータ制御部と、
前記環境情報及び外部データ発生手段からのデータ入力手段を有するパラメータ設定部と、
を有することを特徴とする楽音コンテンツ構成装置。 In a musical sound content composition device that reads from a musical sound source reading unit, adjusts the read musical sound source by a volume equalizer unit, and outputs the musical sound content as a musical sound content by sound source output means;
An environmental information acquisition unit that measures the environmental state in order to acquire the environmental information from the environmental state around the place that provides the output of the sound source output unit;
A parameter extraction unit for extracting a parameter for controlling the operation of the volume equalizer unit based on the environmental information measured by the environmental state acquisition unit;
A parameter control unit for controlling the parameters set in the volume equalizer unit with the extracted parameters;
A parameter setting unit having data input means from the environment information and external data generation means;
A musical sound content composing apparatus comprising:
前記パラメータ設定は、前記楽音ソース選択のために楽音コンテンツの態様を示す形容詞または形容語をデータ形式に変換するデータ変換手段を介して入力する入力手段を有している
ことを特徴とする楽音コンテンツ構成装置。 In the musical sound content composition device according to claim 7,
The musical sound content characterized in that the parameter setting has an input means for inputting via a data conversion means for converting an adjective or an adjective indicating a musical sound content mode into a data format for the selection of the musical sound source Configuration equipment.
前記楽音コンテンツを提供する場所周辺の環境状態を計測する環境情報取得部と、
前記環境情報取得部の計測結果で得られた情報を基に前記楽音ソースの選択方法を設定する楽音ソース選択部と、
前記楽音ソース選択部からの情報により前記楽音ソースをミキシングし、該ミキシング結果の信号を前記音源出力部に送出するミキシング部と、
を有することを特徴とする楽音コンテンツ構成装置。 In the musical sound content composition device that reads the musical sound source reading unit and outputs the musical sound content from the sound source output unit,
An environmental information acquisition unit that measures an environmental condition around a place where the musical sound content is provided;
A musical sound source selection unit that sets a selection method of the musical sound source based on information obtained from the measurement result of the environmental information acquisition unit;
Mixing the music source according to the information from the music source selection unit, and sending a signal of the mixing result to the sound source output unit;
A musical sound content composing apparatus comprising:
前記音源出力部からの出力を提供する場所周辺の環境状態を計測する環境情報取得部と、
前記環境情報取得部の情報を基に前記楽音ソースを選択する楽音ソース選択部と、
前記環境情報取得部による計測結果の情報を基に楽音ソース選択方法及び調整方法を設定するためのパラメータを抽出するパラメータ抽出部と、
前記抽出されたパラメータの情報により前記ボリューム・イコライザ部に設定されているパラメータを制御するパラメータ制御部と、
前記環境情報及び外部データ発生手段からのデータの入力手段を有し、該環境情報および該入力手段からのデータによりパラメータを設定することが出来るパラメータ設定部と、
前記楽音ソース選択部からの情報により前記読み取られた楽音ソースをミキシングし、前記音源出力部に送出するミキシング部と、
を有することを特徴とする楽音コンテンツ構成装置。 In a musical sound content composition device that reads from a musical sound source reading unit, adjusts the read musical sound source by a volume equalizer unit, and outputs the adjusted musical sound source as musical content by a sound source output unit;
An environment information acquisition unit that measures an environmental state around a place that provides output from the sound source output unit;
A musical sound source selection unit that selects the musical sound source based on information of the environmental information acquisition unit;
A parameter extraction unit for extracting parameters for setting a musical sound source selection method and an adjustment method based on information of measurement results by the environment information acquisition unit;
A parameter control unit that controls parameters set in the volume equalizer unit according to the extracted parameter information;
A parameter setting unit having data input means from the environmental information and external data generating means, and capable of setting parameters according to the environmental information and data from the input means;
Mixing the read musical sound source according to information from the musical sound source selection unit, and sending the mixed sound source to the sound source output unit;
A musical sound content composing apparatus comprising:
前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツを構成する処理を実行させるための楽音コンテンツ構成プログラム。 A program for realizing the musical sound content composition method according to any one of claims 1 to 6, using a computer, extracting the parameter from the environment information based on the environment information, and based on the parameter, A musical sound content composition program for executing processing for composing musical sound content by converting data of any associated adjective or adjective into a data format by a data conversion means.
前記環境情報により前記パラメータの抽出し、該パラメータに基づき、また、該パラメータに関連付けられた形容詞または形容語何れかのデータをデータ変換手段によりデータ形式に変換することにより楽音コンテンツの構成を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 The program according to claim 11,
The parameter is extracted from the environment information, and based on the parameter, the data of either an adjective or an adjective associated with the parameter is converted into a data format by the data conversion means, and the composition of the musical sound content is executed. A computer-readable recording medium on which a program for recording is recorded.
前記環境情報取得手段が存在しない場合は、乱数発生器により乱数値を発生し、該乱数値を仮の環境情報の値とし、
前記乱数値と予め設定されている閾値との大小関係を楽音ソース選択判定処理において比較し、
前記乱数値が前記閾値に対して予め定められた範囲内に収斂するまで、前記乱数値発生から前記楽音ソース選択判定処理までの一連の処理を繰り返すことを特徴とする楽音コンテンツ構成方法。
In the musical sound content composition method according to any one of claims 1 to 6,
When the environment information acquisition means does not exist, a random number is generated by a random number generator, and the random value is set as a temporary environment information value.
The magnitude relationship between the random number value and a preset threshold value is compared in the musical sound source selection determination process,
A musical sound content composition method, wherein a series of processing from generation of the random number value to the musical sound source selection determination processing is repeated until the random value converges within a predetermined range with respect to the threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005049051A JP2006235201A (en) | 2005-02-24 | 2005-02-24 | Method and device for constituting musical sound contents, and program and recording medium therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005049051A JP2006235201A (en) | 2005-02-24 | 2005-02-24 | Method and device for constituting musical sound contents, and program and recording medium therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006235201A true JP2006235201A (en) | 2006-09-07 |
Family
ID=37042924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005049051A Pending JP2006235201A (en) | 2005-02-24 | 2005-02-24 | Method and device for constituting musical sound contents, and program and recording medium therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006235201A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012155085A (en) * | 2011-01-25 | 2012-08-16 | Yamaha Corp | Musical sound synthesizer and program |
JP2015135518A (en) * | 2015-03-25 | 2015-07-27 | ヤマハ株式会社 | Music sound synthesizer and program |
JP2016183988A (en) * | 2015-03-25 | 2016-10-20 | 株式会社豊田中央研究所 | Music generation device |
WO2022185946A1 (en) * | 2021-03-04 | 2022-09-09 | ヤマハ株式会社 | Information processing device and method for controlling same |
-
2005
- 2005-02-24 JP JP2005049051A patent/JP2006235201A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012155085A (en) * | 2011-01-25 | 2012-08-16 | Yamaha Corp | Musical sound synthesizer and program |
JP2015135518A (en) * | 2015-03-25 | 2015-07-27 | ヤマハ株式会社 | Music sound synthesizer and program |
JP2016183988A (en) * | 2015-03-25 | 2016-10-20 | 株式会社豊田中央研究所 | Music generation device |
WO2022185946A1 (en) * | 2021-03-04 | 2022-09-09 | ヤマハ株式会社 | Information processing device and method for controlling same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3381074B2 (en) | Sound component device | |
Emmerson et al. | Expanding the horizon of electroacoustic music analysis | |
Craenen | Composing Under the Skin: The Music-making Body at the Composer's Desk | |
WO2020145353A1 (en) | Computer program, server device, terminal device, and speech signal processing method | |
CN106383676B (en) | Instant photochromic rendering system for sound and application thereof | |
JP2014501941A (en) | Music content production system using client terminal | |
Friberg | A fuzzy analyzer of emotional expression in music performance and body motion | |
Gan et al. | Multi-sensory landscape assessment: The contribution of acoustic perception to landscape evaluation | |
JP2006235201A (en) | Method and device for constituting musical sound contents, and program and recording medium therefor | |
JP7274082B2 (en) | Music generating device, music generating method, and music generating program | |
JP6501344B2 (en) | Karaoke scoring system considering listener's evaluation | |
Woloshyn | Electroacoustic Voices: Sounds Queer, and Why it Matters | |
JP6153255B2 (en) | Singing part decision system | |
JP7419768B2 (en) | Music generation method and music generation system | |
WO2023087932A1 (en) | Virtual concert processing method and apparatus, and device, storage medium and program product | |
Tulilaulu et al. | Data musicalization | |
Hajdu et al. | From atmosphere to intervention: the circular dynamic of installations in hospital waiting areas. | |
Akbari | Soundscape compositions for art classrooms | |
Mayor et al. | Kaleivoicecope: voice transformation from interactive installations to video games | |
McGregor et al. | Using participatory visualisation of soundscapes to compare designers’ and listeners’ experiences of sound designs | |
JP6236807B2 (en) | Singing voice evaluation device and singing voice evaluation system | |
WO2016039463A1 (en) | Acoustic analysis device | |
Hoy et al. | Augmentation of sonic meditation practices: resonance, feedback and interaction through an ecosystemic approach | |
Lindborg | Correlations between acoustic features, personality traits and perception of soundscapes | |
TWI497483B (en) | Singing support devices, methods and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090317 |