JP2010243892A - Sound search device and program - Google Patents

Sound search device and program Download PDF

Info

Publication number
JP2010243892A
JP2010243892A JP2009093978A JP2009093978A JP2010243892A JP 2010243892 A JP2010243892 A JP 2010243892A JP 2009093978 A JP2009093978 A JP 2009093978A JP 2009093978 A JP2009093978 A JP 2009093978A JP 2010243892 A JP2010243892 A JP 2010243892A
Authority
JP
Japan
Prior art keywords
sound
search
timeline
line
sound material
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009093978A
Other languages
Japanese (ja)
Other versions
JP5532659B2 (en
Inventor
Yasushi Kamiya
泰史 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2009093978A priority Critical patent/JP5532659B2/en
Priority to EP20100158620 priority patent/EP2239727A1/en
Priority to US12/755,265 priority patent/US9123318B2/en
Priority to CN2010101455650A priority patent/CN101859559B/en
Publication of JP2010243892A publication Critical patent/JP2010243892A/en
Application granted granted Critical
Publication of JP5532659B2 publication Critical patent/JP5532659B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform search from a plurality of sound materials by intuitive operation which is easier to understand. <P>SOLUTION: In a sound search device, when an object ob-i is displayed in a display region of a display section 17, a CPU 22 writes a search condition SC-n of the sound material related to the object ob-n and its search result SR-n in a RAM 23. The CPU 22 performs search while changing the search condition SC-n by relating it to its form, every time the form of the object ob-i changes, and writes the search result SR-n obtained from sound material databases 27 and 28, and a musical piece database 26 in the RAM 23. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、音素材の検索を支援する技術に関する。   The present invention relates to a technique for supporting search of sound material.

断片的な音波形である音素材を集めたデータベースを有し、このデータベースから検索した音素材を繋ぎ合わせたフレーズを曲として演奏する演奏装置がある。この種の演奏装置のデータベースは、複数の種類の音素材とその各々について求めた複数の種類の特徴量とを対応づけたものとなっている。そして、検索者たるユーザが、自らがイメージする音素材の特徴量を検索画面を介して指定すると、その特徴量に近い特徴量をもった音素材がデータベースから検索され、フレーズの構成要素として提示される。   There is a performance device that has a database that collects sound materials that are fragmentary sound waves, and plays a phrase that combines the sound materials retrieved from this database as a song. The database of this type of performance device associates a plurality of types of sound materials with a plurality of types of feature values obtained for each of them. Then, when the user who is the searcher specifies the feature amount of the sound material that he / she imagines via the search screen, the sound material having the feature amount close to the feature amount is searched from the database and presented as a component of the phrase Is done.

特開平07−121163号公報Japanese Patent Laid-Open No. 07-121163

しかしながら、従来の演奏装置の検索画面には、検索条件となる特徴量を指定する条件指定欄が各特徴の種類ごとに個別に設けられていることが多かった。このため、検索者たるユーザは、複数の種類の特徴量を検索条件として音素材の検索を行う場合、それらの各々の条件指定欄の入力内容を見ただけでは自らが探している音素材の検索条件がよく分からないという問題があった。
本発明は、このような背景の下に案出されたものであり、複数の音素材を集めたデータベースからの音素材の検索を容易に行えるようにすることを目的とする。
However, in many cases, a search screen of a conventional performance device is provided with a condition designation field for designating a feature amount as a search condition for each feature type. For this reason, when a user who is a searcher searches for sound material using a plurality of types of feature amounts as search conditions, the user who is searching for the sound material he / she is looking for simply by looking at the input contents of each of the condition specification fields. There was a problem that the search conditions were not well understood.
The present invention has been devised under such a background, and an object of the present invention is to make it easy to search for sound material from a database in which a plurality of sound materials are collected.

本発明は、各音素材とそれらの音素材の特徴量を示す複数種類の特徴量データとを対応づけて記憶する記憶手段と、操作手段と、表示手段と、音素材の特徴量の検索条件を示す画像であるオブジェクトを前記表示手段に表示させ、前記操作手段の操作に応じて、前記オブジェクトの形態と前記オブジェクトが示す特徴量の検索条件とを対応させて変化させ、前記記憶手段に記憶された音素材の中から、前記検索条件が示す特徴量に近い特徴量を有する音素材を検索する制御手段とを具備する音検索装置を提供する。   The present invention relates to a storage means, an operation means, a display means, and a sound material feature value search condition for storing each sound material and a plurality of types of feature value data indicating the feature values of the sound material in association with each other. An object that is an image indicating the object is displayed on the display means, and in accordance with the operation of the operation means, the form of the object and the search condition for the feature value indicated by the object are changed correspondingly and stored in the storage means There is provided a sound search device comprising a control means for searching for a sound material having a feature value close to the feature value indicated by the search condition from the sound material thus obtained.

本発明では、制御手段は、表示手段に表示させるオブジェクトの形態とそのオブジェクトが示す検索条件とを連動して変化させる。よって、操作者たるユーザは、オブジェクトの形態を見ればそのオブジェクトについて自らが指定した検索条件を理解することができ、自らのイメージにマッチした音素材の検索を容易に行うことができる。   In the present invention, the control means changes the form of the object displayed on the display means and the search condition indicated by the object in conjunction with each other. Therefore, the user who is an operator can understand the search condition specified by the user by looking at the form of the object, and can easily search for the sound material that matches the user's image.

なお、特許文献1に開示された演奏データ編集装置は、ある時間長分の音素材の複数のパターンを示すアイコンを操作画面であるソングウィンドウに並べて表示し、そのソングウィンドウにおいて選択されたアイコンと対応するパターンを繋ぎ合わせた曲の楽音信号を発生するものである。しかし、この演奏データ編集装置は、複数の音素材のなかから検索条件に適う音素材を検索するものではなく、本発明とはその内容を異にするものである。   The performance data editing apparatus disclosed in Patent Document 1 displays icons indicating a plurality of patterns of sound material for a certain length of time side by side in a song window which is an operation screen, and the icon selected in the song window and A musical tone signal is generated for a song in which corresponding patterns are connected. However, this performance data editing apparatus does not search for a sound material that satisfies the search condition from among a plurality of sound materials, and differs from the present invention in its contents.

この発明の一実施形態である音検索・演奏装置の構成を示すブロック図である。It is a block diagram which shows the structure of the sound search and performance apparatus which is one Embodiment of this invention. 同音検索・演奏装置の音素材データベースのデータ構造図である。It is a data structure figure of the sound material database of the same sound search / performance device. 同音検索・演奏装置の表示部の表示領域内に表示されるエッジ音およびダスト音のオブジェクトを示す図である。It is a figure which shows the object of the edge sound and dust sound displayed in the display area of the display part of the same sound search / performance device. 同表示領域内におけるオブジェクトの形態の変更を指示する操作である。This is an operation for instructing a change in the form of an object in the display area. 同表示領域内におけるオブジェクトの形態の変更を指示する操作である。This is an operation for instructing a change in the form of an object in the display area. 同表示領域内におけるオブジェクトの形態の変更を指示する操作である。This is an operation for instructing a change in the form of an object in the display area. 同表示領域内に表示されるタイムラインを示す図である。It is a figure which shows the timeline displayed in the display area. 同表示領域内におけるタイムラインとオブジェクトの配置例とその配置によって作られる曲の内容を示す図である。It is a figure which shows the content of the music produced by the example of arrangement | positioning of the timeline and object in the display area, and its arrangement | positioning. 同表示領域内におけるタイムラインとオブジェクトの配置例とその配置によって作られる曲の内容を示す図である。It is a figure which shows the content of the music produced by the example of arrangement | positioning of the timeline and object in the display area, and its arrangement | positioning. 同表示領域内におけるタイムラインとオブジェクトの配置例とその配置によって作られる曲の内容を示す図である。It is a figure which shows the content of the music produced by the example of arrangement | positioning of the timeline and object in the display area, and its arrangement | positioning. 同表示領域内におけるタイムラインとオブジェクトの配置例とその配置によって作られる曲の内容を示す図である。It is a figure which shows the content of the music produced by the example of arrangement | positioning of the timeline and object in the display area, and its arrangement | positioning. 同表示領域内におけるタイムラインとオブジェクトの配置例とその配置によって作られる曲の内容を示す図である。It is a figure which shows the content of the music produced by the example of arrangement | positioning of the timeline and object in the display area, and its arrangement | positioning. 同表示領域内におけるタイムラインとオブジェクトの配置例とその配置によって作られる曲の内容を示す図である。It is a figure which shows the content of the music produced by the example of arrangement | positioning of the timeline and object in the display area, and its arrangement | positioning. 同表示領域内におけるタイムラインとオブジェクトの配置例とその配置によって作られる曲の内容を示す図である。It is a figure which shows the content of the music produced by the example of arrangement | positioning of the timeline and object in the display area, and its arrangement | positioning. 同表示領域内におけるタイムラインとオブジェクトの配置例とその配置によって作られる曲の内容を示す図である。It is a figure which shows the content of the music produced by the example of arrangement | positioning of the timeline and object in the display area, and its arrangement | positioning.

以下、図面を参照し、この発明の実施の形態を説明する。図1は、この発明の一実施形態である音検索・演奏装置10の構成を示すブロック図である。この音検索・演奏装置10は、パーソナルコンピュータに、本実施形態による音検索・演奏プログラム29をインストールしたものである。ここで、音検索・演奏プログラム29は、ユーザが行う操作に応じて、曲を構成するのに用いる音素材をデータベースから検索し、この検索した音素材を用いて作曲を行い、作曲した曲を演奏する機能を有しており、いわゆるループシーケンサに類するアプリケーションプログラムである。なお、本実施形態における音素材とは、曲中の1拍に相当する区間の音波形や1拍をさらに区分した区間の音波形である。本実施形態における音検索・演奏プログラム29は、オブジェクト、タイムラインという既存のループシーケンサにないGUI(Graphical User Interface)を採用している。本実施形態の特徴は、オブジェクトおよびタイムラインを含むGUIにある。なお、このGUIの詳細については後述する。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a sound search / performance device 10 according to an embodiment of the present invention. The sound search / performance device 10 is obtained by installing the sound search / performance program 29 according to the present embodiment in a personal computer. Here, the sound search / performance program 29 searches the database for sound materials used for composing the music in accordance with the operation performed by the user, composes using the searched sound materials, and selects the composed music. This is an application program similar to a so-called loop sequencer. Note that the sound material in the present embodiment is a sound waveform in a section corresponding to one beat in a song or a sound waveform in a section obtained by further dividing one beat. The sound search / performance program 29 in this embodiment employs a GUI (Graphical User Interface) that does not exist in existing loop sequencers such as objects and timelines. A feature of this embodiment is a GUI including an object and a timeline. Details of this GUI will be described later.

図1に示すように、この音検索・演奏装置10は、インターフェース11を介してサウンドシステム91と接続される。この音検索・演奏装置10における操作部13は、マウス14、キーボード15、およびドラムパッド16を含む。表示部17は、たとえば、コンピュータディスプレイである。   As shown in FIG. 1, the sound search / performance device 10 is connected to a sound system 91 via an interface 11. The operation unit 13 in the sound search / performance device 10 includes a mouse 14, a keyboard 15, and a drum pad 16. The display unit 17 is, for example, a computer display.

制御部20は、CPU22、RAM23、ROM24、ハードディスク25を有する。CPU22は、RAM23をワークエリアとして利用しつつ、ROM24やハードディスク25に記憶されたプログラムを実行する。ROM24は、IPL(Initial Program Loader)などを記憶した読み出し専用メモリである。   The control unit 20 includes a CPU 22, a RAM 23, a ROM 24, and a hard disk 25. The CPU 22 executes programs stored in the ROM 24 and the hard disk 25 while using the RAM 23 as a work area. The ROM 24 is a read-only memory that stores an IPL (Initial Program Loader) and the like.

ハードディスク25は、曲データベース26、音素材データベース27,28、および音検索・演奏プログラム29を記憶する。
曲データベース26は、曲データmd−k(k=1,2…)を記憶したデータベースである。曲データmd−k(k=1,2…)は、1曲分の音波形を示すデータである。各曲データmd−k(k=1,2…)には個別の曲番号kが付与されている。
The hard disk 25 stores a song database 26, sound material databases 27 and 28, and a sound search / performance program 29.
The song database 26 is a database that stores song data md-k (k = 1, 2,...). The song data md-k (k = 1, 2,...) Is data indicating the sound waveform of one song. Each song data md-k (k = 1, 2,...) Is assigned an individual song number k.

図2は、音素材データベース27,28のデータ構造図である。音素材データベース27は、曲データmd−k(k=1,2…)に含まれる音素材のうちダスティーな感じの強い各音素材(以下、「ダスト音」と呼ぶ)と各々対応する複数のレコードの集合体である。音素材データベース28は、曲データmd−k(k=1,2…)に含まれる音素材のうちアタックが明瞭でエッジ感の強い各音素材(以下、「エッジ音」と呼ぶ)と各々対応する複数のレコードの集合体である。これらの音素材データベース27,28は、曲データベース26の曲データmd−k(k=1,2…)を特徴量解析プログラム(不図示)によって解析することにより生成されたものである。   FIG. 2 is a data structure diagram of the sound material databases 27 and 28. The sound material database 27 includes a plurality of sound materials (hereinafter referred to as “dust sounds”) each having a strong dusty feeling among the sound materials included in the music data md-k (k = 1, 2,...). A collection of records. The sound material database 28 corresponds to each sound material (hereinafter referred to as “edge sound”) with a clear attack and a strong edge feeling among the sound materials included in the music data md-k (k = 1, 2,...). It is a collection of a plurality of records. These sound material databases 27 and 28 are generated by analyzing the music data md-k (k = 1, 2,...) Of the music database 26 by a feature amount analysis program (not shown).

より具体的に説明すると、音素材データベース27において、1つのエッジ音と対応するレコードは、そのエッジ音が含まれている曲データmd−kの曲番号k、曲データmd−kが示す1曲分の音波形内におけるそのエッジ音を含む区間の始点と終点の時刻tS,tE、およびそのエッジ音を含む区間の音波形(すなわち、音素材)を解析して得られた以下の6種類の特徴量を各々示す9つのフィールドを有する。
a1.低域強度PLOW
これは、音素材に含まれる低域の周波数成分の強度である。
b1.中低域強度PMID-LOW
これは、音素材に含まれる中低域の周波数成分の強度である。
c1.中高域強度PMID-HIGH
これは、音素材に含まれる中高域の周波数成分の強度である。
d1.高域強度PHIGH
これは、音素材に含まれる高域の周波数成分の強度である。
e1.ピーク位置PTIME
これは、当該波形において振幅がピークとなる時刻を時刻tsを基準とした相対時刻として表わしたものである。
f1.ピーク強度PVALUE
これは、音素材におけるピークの振幅である。
More specifically, in the sound material database 27, a record corresponding to one edge sound is a song number k of the song data md-k including the edge sound and one song indicated by the song data md-k. The following 6 obtained by analyzing the time points t S and t E of the section including the edge sound in the minute sound waveform and the sound waveform (that is, sound material) of the section including the edge sound. There are nine fields each indicating the type of feature quantity.
a1. Low frequency intensity P LOW
This is the intensity of the low frequency component contained in the sound material.
b1. Mid-low range strength P MID-LOW
This is the intensity of the mid-low frequency component contained in the sound material.
c1. Medium and high frequency intensity P MID-HIGH
This is the intensity of the frequency component in the mid-high range included in the sound material.
d1. High frequency intensity P HIGH
This is the intensity of the high frequency component contained in the sound material.
e1. Peak position P TIME
This represents the time at which the amplitude peaks in the waveform as a relative time with respect to the time ts.
f1. Peak intensity P VALUE
This is the amplitude of the peak in the sound material.

同様に、音素材データベース28において、1つのダスト音と対応するレコードは、そのダスト音が含まれている曲データmd−kの曲番号k、曲データmd−kが示す1曲分の音波形内におけるそのダスト音を含む区間の始点と終点の時刻tS,tE、およびそのダスト音を含む区間の音素材を解析して得られた前掲の6種類の特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEを各々示す9つのフィールドを有する。 Similarly, in the sound material database 28, a record corresponding to one dust sound is a sound waveform for one song indicated by the song number k of the song data md-k including the dust sound and the song data md-k. The above-mentioned six types of features P LOW and P MID− obtained by analyzing the start and end times t S and t E of the section including the dust sound and the sound material of the section including the dust sound It has nine fields indicating LOW , P MID-HIGH , P HIGH , P TIME and P VALUE respectively.

図1において、音検索・演奏プログラム29は、オブジェクト管理処理30、タイムライン管理処理31、作曲情報管理処理32、マニュアル演奏処理33、自動演奏処理34、検索処理35、音加工処理36、操作ログ管理処理37の8種類の処理をCPU22に実行させるプログラムである。図1において、音検索・演奏プログラム29は、上述したようにオブジェクトおよびタイムラインを含むGUIをユーザに提供する。その概要を説明すると次の通りである。   In FIG. 1, a sound search / performance program 29 includes an object management process 30, a timeline management process 31, a composition information management process 32, a manual performance process 33, an automatic performance process 34, a search process 35, a sound processing process 36, and an operation log. This is a program that causes the CPU 22 to execute eight types of processes of the management process 37. In FIG. 1, the sound search / performance program 29 provides the user with a GUI including objects and a timeline as described above. The outline is as follows.

まず、オブジェクトは、発音させたい音素材の検索条件を表象するパターン画像である。本実施形態において、ユーザは、発音させたい音素材の種類に対応した個数のオブジェクトを作成可能である。オブジェクトの形態は、そのオブジェクトに対応付けられた音素材の検索条件を表す。ユーザは、操作部13の操作により、オブジェクトに対応付けられた音素材の検索条件を変化させ、かつ、これに対応させてオブジェクトの形態を変化させることが可能である。   First, an object is a pattern image that represents a search condition for a sound material to be pronounced. In the present embodiment, the user can create a number of objects corresponding to the type of sound material to be generated. The form of the object represents a sound material search condition associated with the object. The user can change the search condition of the sound material associated with the object and change the form of the object corresponding to this by operating the operation unit 13.

次に、タイムラインは、曲に周期的に繰り返し現れる1または複数の音素材の羅列であるフレーズの周期を表象する線画像である。タイムラインは、1小節を表象してもよいし、複数小節を表象してもよい。本実施形態において、フレーズの作曲は、タイムラインと1または複数のオブジェクトを表示部17に表示させ、タイムラインに1または複数のオブジェクトを帰属させることにより行われる。この場合において、タイムラインに帰属する1または複数のオブジェクトは、タイムラインが表象する1つの周期(フレーズ)内において発音する音素材の検索条件と発音タイミングを指定する。本実施形態において、作曲の際には、複数のタイムラインを使用することも可能である。この場合において、各タイムラインは、作曲対象である曲において、同時進行する複数のフレーズの各々の周期を表象する。また、各タイムラインに、別個のオブジェクトを帰属させてもよいし、各タイムラインに共通のオブジェクトを帰属させることも可能である。   Next, the timeline is a line image that represents the period of a phrase that is an enumeration of one or more sound materials that appear periodically and repeatedly in a song. The timeline may represent one bar or a plurality of bars. In the present embodiment, composition of a phrase is performed by displaying a timeline and one or more objects on the display unit 17 and assigning one or more objects to the timeline. In this case, one or a plurality of objects belonging to the timeline specify a sound material search condition and a sounding timing to be generated within one period (phrase) represented by the timeline. In the present embodiment, it is possible to use a plurality of timelines when composing music. In this case, each timeline represents the period of each of a plurality of phrases that proceed simultaneously in the song that is the composition target. In addition, a separate object may belong to each timeline, or a common object may belong to each timeline.

上述したように、音検索・演奏プログラム29は、オブジェクト管理処理30、タイムライン管理処理31、作曲情報管理処理32、マニュアル演奏処理33、自動演奏処理34、検索処理35、音加工処理36、操作ログ管理処理37の8種類の処理をCPU22に実行させるプログラムである。ここで、オブジェクト管理処理30は、操作部13の操作に応じて、オブジェクトの生成、変更、保存を行う処理である。また、タイムライン管理処理31は、操作部13の操作に応じて、タイムラインの生成および変更を行う処理である。また、作曲情報管理処理32は、表示部17に表示されるタイムラインおよびオブジェクトのレイアウト情報を曲データとして保存する処理と、保存された曲データに基づいてタイムラインとオブジェクトを表示部17に再現させる処理とからなる。   As described above, the sound search / performance program 29 includes the object management processing 30, timeline management processing 31, composition information management processing 32, manual performance processing 33, automatic performance processing 34, search processing 35, sound processing processing 36, operation. This is a program that causes the CPU 22 to execute eight types of processing of the log management processing 37. Here, the object management process 30 is a process for generating, changing, and saving an object in accordance with an operation of the operation unit 13. The timeline management process 31 is a process for generating and changing a timeline in accordance with the operation of the operation unit 13. The music composition information management processing 32 stores the timeline and object layout information displayed on the display unit 17 as music data, and reproduces the timeline and objects on the display unit 17 based on the stored music data. Processing.

また、マニュアル演奏処理33は、ドラムパッド16の操作等によるマニュアルトリガに応じて、オブジェクトが表象する検索条件に合致した音素材を発音させる処理である。また、自動演奏処理34は、表示部17に表示されたオブジェクトの内容および画面内のレイアウトに関する情報をオブジェクト管理処理30と共有するとともに、表示部17に表示されたタイムラインの内容および画面内のレイアウトに関する情報をタイムライン管理処理31と共有し、表示部17に表示された1または複数のタイムラインと1または複数のオブジェクトに従って1または複数のフレーズの自動演奏を行う処理である。   The manual performance process 33 is a process for generating a sound material that matches a search condition represented by an object in response to a manual trigger by an operation of the drum pad 16 or the like. In addition, the automatic performance process 34 shares information about the contents of the object displayed on the display unit 17 and the layout on the screen with the object management process 30, and also displays the contents of the timeline displayed on the display unit 17 and the information on the screen. Information regarding layout is shared with the timeline management process 31, and one or more phrases are automatically played according to one or more timelines and one or more objects displayed on the display unit 17.

検索処理35は、指定されたオブジェクトに対応付けられた検索条件に従って音素材の検索を行う処理であり、オブジェクト管理処理30、マニュアル演奏処理33、自動演奏処理34においてサブルーチンとして起動される。音加工処理36は、オブジェクトに対応した音素材を発音する際にその音素材の一部のパラメータを変更する処理であり、自動演奏処理34においてサブルーチンとして起動される処理である。操作ログ管理処理37は、オブジェクトやタイムラインの生成、変更等を行う操作部13の操作ログを記録する処理と、記録した操作ログを読み出して操作ログが示す各操作を再現する処理とからなる。
以上が本実施形態による音検索・演奏装置10の構成の詳細である。
The search process 35 is a process for searching for a sound material in accordance with a search condition associated with a designated object, and is started as a subroutine in the object management process 30, the manual performance process 33, and the automatic performance process 34. The sound processing process 36 is a process for changing some parameters of the sound material when the sound material corresponding to the object is generated, and is a process started as a subroutine in the automatic performance process 34. The operation log management process 37 includes a process of recording an operation log of the operation unit 13 that generates and changes objects and timelines, and a process of reading the recorded operation log and reproducing each operation indicated by the operation log. .
The above is the detailed configuration of the sound search / performance device 10 according to the present embodiment.

本実施形態では、曲の材料となる音素材を決定する素材決定作業と、その決定した音素材を1または複数のフレーズの時間軸上にマッピングする素材配置作業とを経て1つの曲が作られる。以下、素材決定作業と素材配置作業における本実施形態の動作を説明する。   In the present embodiment, one piece of music is created through a material determination operation for determining a sound material to be a material of a song and a material arrangement operation for mapping the determined sound material on the time axis of one or a plurality of phrases. . Hereinafter, the operation of the present embodiment in the material determination work and the material placement work will be described.

(1)素材決定作業
素材決定作業では、ユーザは、音素材の検索タイミングを決める2つの検索設定である第1検索設定と第2検索設定のうち一方を選択し、オブジェクト出現操作、検索条件指定操作、マニュアル演奏操作、オブジェクト保存操作などを行う。第1検索設定は、オブジェクトに対応付けられた検索条件が変化するたびに、曲データベース26からの音素材の検索を行う検索設定である。第2検索設定は、オブジェクトが示す音素材の発音を行うたびに、それに先立って、曲データベース26からの音素材の検索を行う検索設定である。
(1) Material determination work In the material determination work, the user selects one of the two search settings that determine the sound material search timing, the first search setting and the second search setting, and the object appearance operation and the search condition designation. Perform operations, manual performance operations, object saving operations, etc. The first search setting is a search setting for searching for sound material from the music database 26 every time the search condition associated with the object changes. The second search setting is a search setting for searching for the sound material from the song database 26 before the sound material indicated by the object is sounded.

ユーザは、まず、オブジェクト出現操作を行う。オブジェクト出現操作は、オブジェクトob−n(n=1,2…)の画像を表示部17の表示領域内に出現させる操作である。上述したように、オブジェクトob−nは、曲のフレーズを構成する音素材を表象する画像である。オブジェクト出現操作では、過去作成してハードディスク25に保存したオブジェクトob−nを出現対象として指示することもできるし、音検索・演奏プログラム29に用意されたデフォルトオブジェクト(予め定められた標準的な検索条件を持ったオブジェクトob−n)を出現対象として指示することもできる。   First, the user performs an object appearance operation. The object appearance operation is an operation for causing the image of the object ob-n (n = 1, 2,...) To appear in the display area of the display unit 17. As described above, the object ob-n is an image representing the sound material constituting the phrase of the song. In the object appearance operation, an object ob-n created in the past and stored in the hard disk 25 can be designated as an appearance target, or a default object prepared in the sound search / performance program 29 (a predetermined standard search). An object ob-n) having a condition can also be designated as an appearance target.

また、オブジェクト出現操作では、エッジ音のオブジェクトob−nを出現対象として指示することもできるし、ダスト音のオブジェクトob−nを出現対象として指示することもできる。オブジェクト管理処理30では、オブジェクト出現操作において指示されたオブジェクトob−nを表示部17に表示させ、かつ、そのオブジェクトob−nに対応付けられたオブジェクト管理情報をRAM23に書き込む。このオブジェクト管理情報は、オブジェクトob−nが示す音素材の検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Num(1≦Num)を含む。また、オブジェクト管理情報は、検索条件SC−nを用いた検索により得られた音素材のセットである検索結果SR−nを伴う場合がある。 Further, in the object appearance operation, the edge sound object ob-n can be designated as an appearance target, and the dust sound object ob-n can be designated as an appearance target. In the object management process 30, the object ob-n instructed in the object appearance operation is displayed on the display unit 17, and the object management information associated with the object ob-n is written in the RAM 23. This object management information includes the feature quantities P LOW , P MID-LOW , P MID-HIGH , P HIGH , P TIME , P VALUE and the number of search required that constitute the sound material search condition SC-n indicated by the object ob-n. Num (1 ≦ Num) is included. Further, the object management information may be accompanied by a search result SR-n that is a set of sound materials obtained by a search using the search condition SC-n.

図3(A)に示すように、エッジ音のオブジェクトob−nは、全体として矩形をなし、矩形の右辺にある縦ストライプ領域51と、この縦ストライプ領域51の左側を上下に4等分した4つの横ストライプ領域52−m(m=1〜4)とを有している。また、エッジ音のオブジェクトob−nにおいて、横ストライプ領域52−1および52−2と、横ストライプ領域52−3および52−4には、エッジ音を模擬した上下対称の三角形55−u,55−dが各々重ねて表示される。ここで、三角形55−u,55−dの上下の頂点の水平方向における位置は、オブジェクトob−nが表象するエッジ音のピーク位置PTIMEを表す。すなわち、この三角形55−u,55−dの上下の頂点が左側にある程、エッジ音の尖った感じが増し、三角形55−u,55−dの上下の頂点が右側にある程、エッジ音の尖った感じが鈍ることとなる。また、三角形55−u,55−dの上下の頂点の高さは、そのピークのピーク強度PVALUEを表す。すなわち、三角形55−u,55−dの上下の頂点が高い程、エッジ音のエッジ感が強くなり、三角形55−u,55−dの上下の頂点が低い程、エッジ音のエッジ感が弱くなる。 As shown in FIG. 3A, the edge sound object ob-n has a rectangular shape as a whole, and the vertical stripe region 51 on the right side of the rectangle and the left side of the vertical stripe region 51 are vertically divided into four equal parts. And four horizontal stripe regions 52-m (m = 1 to 4). In the edge sound object ob-n, the horizontal stripe regions 52-1 and 52-2 and the horizontal stripe regions 52-3 and 52-4 have vertically symmetrical triangles 55-u and 55 simulating the edge sound. -D is displayed in an overlapping manner. Here, the positions in the horizontal direction of the upper and lower vertices of the triangles 55-u and 55-d represent the peak position P TIME of the edge sound represented by the object ob-n. That is, as the upper and lower vertices of the triangles 55-u and 55-d are on the left side, the edge sound becomes more sharp, and as the upper and lower vertices of the triangles 55-u and 55-d are on the right side, the edge sound is increased. The pointed feeling will become dull. The heights of the upper and lower vertices of the triangles 55-u and 55-d represent the peak intensity P VALUE of the peak. That is, the higher the upper and lower vertices of the triangles 55-u and 55-d, the stronger the edge feeling of the edge sound, and the lower the upper and lower vertices of the triangles 55-u and 55-d, the weaker the edge feeling of the edge sound. Become.

横ストライプ領域52−m(m=1〜4)は、各々の表示色の濃淡がオブジェクトob−nが表象するエッジ音の高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOW、低域強度PLOWを表す。すなわち、例えば横ストライプ領域52−1の表示色が濃い場合、エッジ音は高域強度の強い音となり、例えば横ストライプ領域52−1の表示色が薄くて横ストライプ領域52−2の表示色が濃い場合には、エッジ音は高域強度よりは中高域強度が強い音となる。ダスト音のオブジェクトob−nは、図3(B)に示すように、縦ストライプ領域51と横ストライプ領域52−m(m=1〜4)とからなる部分にダスト音を模擬した砂地模様を重ねたような形態をなしている。エッジ音のオブジェクトob−nと同様、横ストライプ領域52−m(m=1〜4)は、各々の表示色の濃淡がオブジェクトob−nが表象するダスト音の高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOW、低域強度PLOWを表す。 The horizontal stripe region 52-m (m = 1 to 4) has a high-frequency intensity P HIGH , a medium-high frequency intensity P MID-HIGH , and a mid-low frequency intensity of the edge sound in which the shade of each display color represents the object ob-n. P MID-LOW , low frequency intensity P LOW . That is, for example, when the display color of the horizontal stripe region 52-1 is dark, the edge sound becomes a high-intensity sound. For example, the display color of the horizontal stripe region 52-1 is light and the display color of the horizontal stripe region 52-2 is low. When it is deep, the edge sound is a sound having a higher mid-high frequency intensity than a high frequency intensity. As shown in FIG. 3B, the dust sound object ob-n has a sand pattern that simulates the dust sound in the portion composed of the vertical stripe region 51 and the horizontal stripe region 52-m (m = 1 to 4). It is in the form of overlapping. Similar to the edge sound object ob-n, the horizontal stripe region 52-m (m = 1 to 4) has a high and low intensity P HIGH of the dust sound represented by the object ob-n, and the middle and high frequencies. Intensity P MID-HIGH , mid-low range intensity P MID-LOW , low range intensity P LOW is represented.

ユーザは、オブジェクト出現操作によって表示部17の表示領域内に一または複数のオブジェクトob−nを表示させた後、オブジェクトob−nを対象として、検索条件指定操作、オブジェクト保存操作などを行うことができる。   The user may display one or a plurality of objects ob-n in the display area of the display unit 17 by an object appearance operation, and then perform a search condition specifying operation, an object saving operation, and the like for the object ob-n. it can.

検索条件指定操作は、オブジェクトob−nに対応させる音素材の検索条件SC−nを指定する操作である。この検索条件指定操作には次のものがある。
<エッジ音のピーク位置PTIMEおよびピーク強度PVALUEを指定する操作>
この操作では、エッジ音のオブジェクトob−nの三角形55−u,55−dの形状を操作する。具体的には、ユーザは、図4に示すように、エッジ音のオブジェクトob−nの三角形55−u,55−dのうち一方(たとえば、三角形55−uとする)の頂点Cにマウスポインタmpを移動させて左クリックし、そのままマウスポインタmpを任意の方向に移動させて左クリックを解除する。CPU22は、オブジェクト管理処理30では、この操作に応じて、ピーク位置PTIMEおよびピーク強度PVALUEと三角形55−u,55−dの形状とを連動させて変化させる。すなわち、三角形55−u,55−dの各頂点の位置は操作を終えた時点におけるマウスポインタmpの位置となり、三角形55−u,55−dの各頂点のオブジェクトob−nの左辺からの距離は更新後のピーク位置PTIMEを、各頂点の高さは更新後のピーク強度PVALUEを示すものとなる。
The search condition designating operation is an operation of designating a sound material search condition SC-n corresponding to the object ob-n. This search condition specifying operation includes the following.
<Operation to specify peak position P TIME and peak intensity P VALUE of edge sound>
In this operation, the shapes of the triangles 55-u and 55-d of the edge sound object ob-n are operated. Specifically, as shown in FIG. 4, the user moves the mouse pointer to a vertex C of one of the triangles 55-u and 55-d (for example, the triangle 55-u) of the edge sound object ob-n. mp is moved and left-clicked, and the mouse pointer mp is moved in an arbitrary direction to release the left-click. In the object management process 30, the CPU 22 changes the peak position P TIME and peak intensity P VALUE and the shapes of the triangles 55-u and 55-d in association with this operation. That is, the positions of the vertices of the triangles 55-u and 55-d become the positions of the mouse pointer mp when the operation is finished, and the distances from the left side of the object ob-n of the vertices of the triangles 55-u and 55-d. Indicates the updated peak position P TIME , and the height of each vertex indicates the updated peak intensity P VALUE .

<エッジ音およびダスト音の高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOW、低域強度PLOWを指定する操作>
この場合、ユーザは、図5に示すように、マウスポインタmpをオブジェクトob−nの横ストライプ領域52−m(m=1〜4)のいずれか(図5の例では領域52−1)の左側に移動させてキーボード15の所定のキー(たとえば、Shiftキーとする)を押下し、そのままマウスポインタmpを右方向に移動させてキーの押下を解除する。例えば、横ストライプ領域52−4について以上の操作が行われた場合、オブジェクト管理処理30では、マウスポインタmpを右方向への移動量に応じて、低域強度PLOWと横ストライプ領域52−4の表示色の濃度を連動させて更新する。高域強度PHIGH、中高域強度PMID-HIGH、中低域強度PMID-LOWの指定操作も同様である。
<Operation to specify high-frequency intensity P HIGH , mid-high frequency intensity P MID-HIGH , mid-low frequency intensity P MID-LOW , and low-frequency intensity P LOW of edge sound and dust sound>
In this case, as shown in FIG. 5, the user moves the mouse pointer mp to one of the horizontal stripe regions 52-m (m = 1 to 4) of the object ob-n (the region 52-1 in the example of FIG. 5). Move to the left side and press a predetermined key (for example, Shift key) on the keyboard 15, and move the mouse pointer mp rightward to release the key. For example, when the above operation is performed on the horizontal stripe region 52-4, the object management process 30 determines that the low band intensity P LOW and the horizontal stripe region 52-4 are in accordance with the amount of movement of the mouse pointer mp in the right direction. Update the display color density in conjunction with. The operation for specifying the high-frequency intensity P HIGH , the mid-high frequency intensity P MID-HIGH , and the mid-low frequency intensity P MID-LOW is the same.

<エッジ音およびダスト音の要検索数Numを指定する操作>
この場合、ユーザは、図6に示すように、マウスポインタmpをオブジェクトob−nの縦ストライプ領域51の下側に移動させてキーボード15の所定のキー(たとえば、Shiftキーとする)を押下し、そのままマウスポインタmpを上方向に移動させてキーの押下を解除する。この操作が行われると、オブジェクト管理処理30では、縦ストライプ領域51内にその下辺から上方向へ伸びるバー95を表示させ、マウスポインタmpの上方向への移動量に応じて、要検索数Numと縦ストライプ領域51のバー95の高さとを連動させて更新する。
<Operation to specify number of search Num required for edge and dust sounds>
In this case, as shown in FIG. 6, the user moves the mouse pointer mp to the lower side of the vertical stripe region 51 of the object ob-n and presses a predetermined key (for example, Shift key) of the keyboard 15. Then, the mouse pointer mp is moved upward as it is to release the key press. When this operation is performed, the object management process 30 displays a bar 95 extending upward from the lower side in the vertical stripe region 51, and the number of search required Num according to the amount of upward movement of the mouse pointer mp. And the height of the bar 95 in the vertical stripe region 51 are updated in conjunction with each other.

さらに、第1検索設定の下では、オブジェクトに対応付けられた検索条件SC−nが変化する度に、オブジェクト管理処理30が検索処理35を起動し、オブジェクトにおける新たな検索条件SC−nでの音素材の検索を検索処理35に行わせる。
例えばエッジ音のオブジェクトob−nに対応付けられた検索条件SC−nが変化して検索処理35が起動された場合、この検索処理35では、RAM23から検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Numを読み出す。そして、特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEが示す6次元の特徴量ベクトルとの間のユークリッド距離が短い上位Num個のレコードを音素材データベース27から検索する。また、その上位Num個の各レコードに各々対応した音素材を検索する。すなわち、各レコードにおいて曲番号kのフィールドと同じ曲番号kの曲データmd−kを検索し、この曲データmd−kにおいて、当該レコードの時刻tS,tEのフィールドが示す始点と終点の間の区間の音素材を検索するのである。そして、このようにして検索した上位Num個の各レコードと上位Num個の音素材を検索結果SR−nとしてオブジェクトob−nに対応付ける。ダスト音のオブジェクトob−nに対応付けられた検索条件SC−nが変化した場合も同様である。
Further, under the first search setting, each time the search condition SC-n associated with the object changes, the object management process 30 activates the search process 35, and the new search condition SC-n for the object. The search processing 35 is made to search for sound material.
For example, when the search condition SC-n associated with the edge sound object ob-n is changed and the search process 35 is started, the search process 35 starts from the RAM 23 with the feature amount P constituting the search condition SC-n. Read LOW , P MID-LOW , P MID-HIGH , P HIGH , P TIME , P VALUE and the number of search required Num. Then, the top Num records with short Euclidean distances from the 6-dimensional feature vectors indicated by the feature values P LOW , P MID-LOW , P MID-HIGH , P HIGH , P TIME , and P VALUE are stored in the sound material database. Search from 27. Also, the sound material corresponding to each of the top Num records is searched. That is, the music data md-k having the same music number k as the field of the music number k is searched in each record, and the start and end points indicated by the time t S and t E fields of the record are searched for in the music data md-k. The sound material in the interval between them is searched. Then, the top Num records searched in this way and the top Num sound materials are associated with the object ob-n as the search result SR-n. The same applies when the search condition SC-n associated with the dust sound object ob-n changes.

ユーザは、オブジェクトob−nに所望の特性を持った音素材が対応付けられているか否かを確認するためにマニュアル演奏操作を行うことができる。このマニュアル演奏操作は、マニュアルトリガを発生させ、オブジェクトob−nに対応付けられた音素材をサウンドシステム91から発音させる操作である。マニュアルトリガとして何を採用するかは、音検索・演奏プログラム29に対して設定可能であるが、この例ではドラムパッド16の操作イベントがマニュアルトリガとして指定されているものとする。この場合において、ユーザは、マウスポインタmpをオブジェクトob−nに移動させてドラムパッド16を叩くと、マニュアル演奏処理33が実行される。   The user can perform a manual performance operation to confirm whether or not a sound material having a desired characteristic is associated with the object ob-n. This manual performance operation is an operation for generating a manual trigger and causing the sound system 91 to sound the sound material associated with the object ob-n. What is adopted as the manual trigger can be set for the sound search / performance program 29. In this example, it is assumed that the operation event of the drum pad 16 is designated as the manual trigger. In this case, when the user moves the mouse pointer mp to the object ob-n and strikes the drum pad 16, the manual performance process 33 is executed.

第1検索設定の下でのマニュアル演奏処理33では、ドラムパッド16が叩かれる都度、マウスポインタmpにより指示されたオブジェクトob−nに対応付けられた検索結果SR−nを構成する音素材(上述した上位Num個の音素材)の中から1つの音素材をランダムに選択し、選択した音素材をサウンドシステム91から発音させる。また、第2検索設定の下でのマニュアル演奏処理33では、ドラムパッド16が叩かれる都度、検索処理35を起動し、マウスポインタmpにより指示されたオブジェクトob−nに対応付けられた検索条件SC−nを検索処理35に引き渡す。そして、検索処理35により得られる検索結果SR−nを構成する音素材(上述した上位Num個の音素材)の中から1つの音素材をランダムに選択し、選択した音素材をサウンドシステム91から発音させる。ユーザは、このようにして発音される音素材を耳で確認し、音素材が所望の特性を有していない場合には、再びオブジェクトob−nに対する検索条件指定操作を行う。   In the manual performance processing 33 under the first search setting, each time the drum pad 16 is hit, the sound material (described above) that constitutes the search result SR-n associated with the object ob-n indicated by the mouse pointer mp. The selected sound material is made to sound from the sound system 91 at random. Further, in the manual performance process 33 under the second search setting, the search process 35 is activated every time the drum pad 16 is hit, and the search condition SC associated with the object ob-n pointed to by the mouse pointer mp. -N is delivered to the search process 35. Then, one sound material is randomly selected from the sound materials (upper Num sound materials described above) constituting the search result SR-n obtained by the search processing 35, and the selected sound material is selected from the sound system 91. Let them pronounce. The user confirms the sound material sounded in this way with his / her ear, and if the sound material does not have a desired characteristic, the user performs a search condition designation operation on the object ob-n again.

表示部17の表示領域内のオブジェクトob−nを後刻再利用する予定がある場合、ユーザはオブジェクト保存操作を行うことができる。これは表示部17の表示領域内のオブジェクトob−nの保存を指示する操作部13の操作である。あるオブジェクトob−nを対象としてオブジェクト保存操作が行われると、オブジェクト管理処理30では、そのオブジェクトob−nのオブジェクト管理情報を生成し、生成したオブジェクト管理情報をハードディスク25に記憶する。このオブジェクト管理情報は、オブジェクトob−nの検索条件SC−nを構成する特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Num、およびその検索結果SR−nを構成するレコードのセットである。 When the object ob-n in the display area of the display unit 17 is scheduled to be reused later, the user can perform an object saving operation. This is an operation of the operation unit 13 instructing to save the object ob-n in the display area of the display unit 17. When an object saving operation is performed for a certain object ob-n, the object management processing 30 generates object management information for the object ob-n and stores the generated object management information in the hard disk 25. This object management information includes feature quantities P LOW , P MID-LOW , P MID-HIGH , P HIGH , P TIME , P VALUE and the number of search required Num that constitute the search condition SC-n for the object ob-n It is a set of records constituting the search result SR-n.

以上のように、素材決定作業では、ユーザは、表示部17の表示領域内におけるオブジェクトob−nの形態を変化させることによって、検索条件SC−nを構成する要検索数Numや特徴量PLOW,PMID-LOW,PMID-HIGH,PHIGH,PTIME,PVALUEを変えつつ、自らがイメージする音に近い音素材を曲データベース26および音素材データベース27,28から検索する。ユーザは、曲を作るのに必要な数のオブジェクトob−n(n=1,2…)とその各々の形態を決め、必要であればそれらのオブジェクトob−n(n=1,2…)のオブジェクト管理情報を保存し、次の素材配置作業に移る。 As described above, in the material determination work, the user changes the form of the object ob-n in the display area of the display unit 17 to change the number of required searches Num and the feature amount P LOW constituting the search condition SC-n. , P MID-LOW , P MID-HIGH , P HIGH , P TIME , and P VALUE are searched, and the sound material close to the sound imaged by itself is searched from the music database 26 and the sound material databases 27 and 28. The user determines the number of objects ob-n (n = 1, 2,...) And their respective forms necessary for making a song, and if necessary, these objects ob-n (n = 1, 2,...) The object management information is saved, and the next material placement work is started.

(2)素材配置作業
素材配置作業では、ユーザは、操作部13を使用して、1または複数の所望のタイムラインと1または複数の所望のオブジェクトを表示部17の表示領域内に表示させ、各タイムラインと各オブジェクトが所望の位置関係を持つように、各々の位置等の調整を行う。そのためにユーザは、オブジェクト出現操作、オブジェクト複製操作、検索条件指定操作、タイムライン出現操作、タイムライン位置変更操作、オブジェクト位置変更操作、サイズ変更操作、拍子指示操作、グリッド指定操作、パラメータ連動操作、演奏開始操作、レイアウト保存操作、レイアウト読出操作、ログ記録開始操作、ログ記録終了操作、ログ再生操作などを行う。
(2) Material Placement Work In the material placement work, the user uses the operation unit 13 to display one or more desired timelines and one or more desired objects in the display area of the display unit 17, Each position is adjusted so that each timeline and each object have a desired positional relationship. Therefore, the user can perform object appearance operation, object duplication operation, search condition designation operation, timeline appearance operation, timeline position change operation, object position change operation, size change operation, time signature instruction operation, grid designation operation, parameter interlocking operation, Perform performance start operation, layout save operation, layout read operation, log recording start operation, log recording end operation, log reproduction operation, and the like.

タイムライン出現操作が行われると、タイムライン管理処理31では、図7に例示するタイムラインLINE−iを表示部17の表示領域内に表示させる。このタイムラインLINE−iは、フレーズの周期を表す水平方向に延びた直線画像である。タイムラインLINE−iの左端、右端、および左端と右端を4等分した位置からは下方向に拍案内線63−j(j=1〜5)が延伸している。また、タイムラインLINE−iの隣り合う拍案内線63−j間を等分した位置からはグリッド線gが下方向に延伸している。そして、タイムラインLINE−iの左端と右端の拍案内線63−jの間に挟まれた領域が、タイムラインLINE−iの支配が及ぶ占有領域となっている。この占有領域内のオブジェクトob−nがタイムラインLINE−iに属するオブジェクトとなる。また、タイムラインLINE−iはタイミングポインタ62を内包する。このタイミングポインタ62は、自動演奏において現在の演奏位置を示すポインタであり、自動演奏の際にはタイムラインLINE−iの左端から右端までの移動を周期的に繰り返す。   When the timeline appearance operation is performed, the timeline management process 31 displays the timeline LINE-i illustrated in FIG. 7 in the display area of the display unit 17. This timeline LINE-i is a straight line image extending in the horizontal direction representing the period of the phrase. A beat guide line 63-j (j = 1 to 5) extends downward from the left end, the right end of the timeline LINE-i, and the position obtained by equally dividing the left end and the right end into four. Further, the grid line g extends downward from a position where the adjacent beat guide lines 63-j of the timeline LINE-i are equally divided. An area sandwiched between the left end and the right end beat guide line 63-j of the timeline LINE-i is an occupied area that is controlled by the timeline LINE-i. The object ob-n in this occupied area becomes an object belonging to the timeline LINE-i. The timeline LINE-i includes a timing pointer 62. The timing pointer 62 is a pointer indicating the current performance position in the automatic performance, and the movement from the left end to the right end of the timeline LINE-i is periodically repeated during the automatic performance.

ユーザは、操作部13の操作により、表示部17の表示領域内におけるタイムラインLINE−iの水平方向の長さや拍案内線63−j(j=1〜5)の長さの調整をタイムライン管理処理31に行わせることができる。また、ユーザは、操作部13の操作により、タイムラインLINE−iが示すフレーズの周期T、すなわち、タイミングポインタ62がタイムラインLINE−iの左端から右端まで移動する所要時間の調整をタイムライン管理処理31に行わせることができる。タイムライン管理処理31では、操作部13の操作により表示部17に表示される各タイムラインLINE−iについて、表示領域内の水平方向および垂直方向の位置、水平方向の長さ、拍案内線63−j(j=1〜5)の数や長さ、タイムラインが示す周期Tの各情報を管理する。   The user operates the operation unit 13 to adjust the horizontal length of the timeline LINE-i and the length of the beat guide lines 63-j (j = 1 to 5) in the display area of the display unit 17 in the timeline. The management processing 31 can be performed. In addition, the user operates the operation unit 13 to adjust the period T of the phrase indicated by the timeline LINE-i, that is, the time required for the timing pointer 62 to move from the left end to the right end of the timeline LINE-i. Processing 31 can be performed. In the timeline management process 31, for each timeline LINE-i displayed on the display unit 17 by the operation of the operation unit 13, the horizontal and vertical positions in the display area, the horizontal length, and the beat guide line 63. The number and length of -j (j = 1 to 5) and each information of the period T indicated by the timeline are managed.

次にユーザは、タイムラインLINE−iに帰属させるオブジェクトob−nが表示部17の表示領域内に表示されていない場合には、そのオブジェクトob−nを出現させるためのオブジェクト出現操作を行う。このオブジェクト出現操作では、ハードディスク25に保存されているオブジェクト管理情報を読み出し、オブジェクトob−nとして表示させてもよい。また、ユーザは、表示部17の表示領域内に表示されているオブジェクトob−nについて検索条件指定操作を行うことも可能である。オブジェクト管理処理30では、操作部13の操作により表示部17に表示される各オブジェクトob−nについて、表示領域内の水平方向および垂直方向の位置、オブジェクトob−nに対応付けられた検索条件SC−n、検索結果SR−nの各情報を管理する。また、表示中のオブジェクトob−nについて検索条件指定操作が行われた場合、オブジェクト管理処理30では、該当するオブジェクトob−nに対応付けられた検索条件SC−n、検索結果SR−nを更新する。   Next, when the object ob-n to be attributed to the timeline LINE-i is not displayed in the display area of the display unit 17, the user performs an object appearance operation for causing the object ob-n to appear. In this object appearance operation, the object management information stored in the hard disk 25 may be read and displayed as the object ob-n. The user can also perform a search condition specifying operation for the object ob-n displayed in the display area of the display unit 17. In the object management processing 30, for each object ob-n displayed on the display unit 17 by the operation of the operation unit 13, the horizontal and vertical positions in the display area, the search condition SC associated with the object ob-n. -N, each information of search result SR-n is managed. When a search condition specifying operation is performed for the object ob-n being displayed, the object management process 30 updates the search condition SC-n and the search result SR-n associated with the object ob-n. To do.

ユーザは、表示部17の表示領域内に一または複数のタイムラインLINE−iとオブジェクトob−nを表示させたあと、操作部13を使用してタイムライン位置変更操作やオブジェクト位置変更操作を行うことができる。あるオブジェクトob−nをあるタイムラインLINE−iに帰属させたい場合、そのタイムラインLINE−iの占有領域内に収まるようにそのオブジェクトob−nの位置を調整すればよい。この場合において、共通のオブジェクトob−nを複数のタイムラインLINE−iの各占有領域内に配置し、複数のタイムラインLINE−iに帰属させることも可能である。   The user displays one or more timelines LINE-i and objects ob-n in the display area of the display unit 17, and then performs a timeline position change operation and an object position change operation using the operation unit 13. be able to. When it is desired to assign a certain object ob-n to a certain timeline LINE-i, the position of the object ob-n may be adjusted so that it falls within the occupied area of the timeline LINE-i. In this case, a common object ob-n can be arranged in each occupied area of the plurality of timelines LINE-i and can be attributed to the plurality of timelines LINE-i.

また、ユーザは、サイズ変更操作によってタイムラインLINE−iのx軸方向の幅やy軸方向の幅を伸縮させたり、拍子指示操作によってタイムラインLINE−i内の拍案内線63−jの数を4本以下や6本以上に増減させたり、グリッド指定操作によってタイムラインLINE−iの拍案内線63−j間のグリッド線gの数を2本以上に増やすこともできる。ユーザは、タイムラインLINE−iが示すフレーズの周期Tを変える操作を行うことなくそのタイムラインLINE−iのx軸方向の幅を大きくする操作を行うことにより、タイムラインLINE−iの占有領域の面積を拡げてその領域内におけるオブジェクトob−nの編集の自由度を高めることができる。   In addition, the user expands or contracts the width in the x-axis direction and the width in the y-axis direction of the timeline LINE-i by the size change operation, or the number of beat guide lines 63-j in the timeline LINE-i by the time signature instruction operation. The number of grid lines g between the beat guide lines 63-j of the timeline LINE-i can be increased to 2 or more by a grid designation operation. The user performs an operation of increasing the width in the x-axis direction of the timeline LINE-i without performing an operation of changing the period T of the phrase indicated by the timeline LINE-i, thereby occupying the area occupied by the timeline LINE-i. The degree of freedom of editing the object ob-n in the area can be increased.

また、ユーザは、パラメータ連動操作を行うことにより、自動演奏時における音素材の発音に関する動作モードを通常モードからパラメータ連動モードに切り換えることができる。ここで、パラメータ連動モードとは、タイムラインLINE−iに属するオブジェクトob−nに対応した音素材を発音させる場合においてその音素材のパラメータ(例えばピッチ、音量、発音タイミングの遅延量)をそのタイムラインLINE−iからそのオブジェクトob−nまでの垂直方向の距離に応じて変化させるモードである。また、通常モードは、タイムラインLINE−iに帰属するオブジェクトob−nが示す音素材のパラメータを変化させずに発音を行うモードである。   Further, the user can switch the operation mode related to the sound material generation during the automatic performance from the normal mode to the parameter interlock mode by performing the parameter interlock operation. Here, the parameter interlocking mode refers to parameters of sound material (for example, pitch, volume, delay amount of sounding timing) when the sound material corresponding to the object ob-n belonging to the timeline LINE-i is sounded. In this mode, the line LINE-i is changed in accordance with the vertical distance from the object ob-n. The normal mode is a mode in which sound is generated without changing the parameters of the sound material indicated by the object ob-n belonging to the timeline LINE-i.

また、ユーザは、必要に応じてオブジェクト複製操作を行うことができる。これは、表示部17の表示領域内に表示されているオブジェクトob−nをその表示領域内に複製する操作である。あるオブジェクトob−nを対象としてオブジェクト複製操作が行われると、オブジェクト管理処理30では、操作の対象であったオブジェクトob−nと同じ形態のオブジェクトob’−nを表示させる。この複製のオブジェクトob’−nは、1個生成することもできるし、複数生成することもできる。ここで、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nは共通の検索条件SC−nおよび検索結果SR−nに対応付けられる。ユーザは、オリジナルのオブジェクトob−nのみならず、複製のオブジェクトob’−nも所望のタイムラインLINE−iに帰属させることができる。ここで、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nは同格であり、かつ、操作に対する運命を共にする。すなわち、CPU22は、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nのいずれかを対象として検索条件指定操作が行われた場合、オリジナルのオブジェクトob−nと複製のオブジェクトob’−nに共通な検索条件SC−nを更新する。   Further, the user can perform an object duplication operation as necessary. This is an operation for copying the object ob-n displayed in the display area of the display unit 17 in the display area. When an object duplication operation is performed on a certain object ob-n, the object management process 30 displays an object ob'-n having the same form as the object ob-n that was the operation target. One or more duplicate objects ob'-n can be created. Here, the original object ob-n and the duplicate object ob'-n are associated with the common search condition SC-n and search result SR-n. The user can attribute not only the original object ob-n but also the duplicate object ob'-n to the desired timeline LINE-i. Here, the original object ob-n and the duplicate object ob'-n are equivalent and share the destiny for the operation. That is, when a search condition specifying operation is performed on either the original object ob-n or the duplicate object ob′-n, the CPU 22 changes the original object ob-n and the duplicate object ob′-n to the original object ob-n. The common search condition SC-n is updated.

ユーザは、以上の各操作により表示部17の表示領域内におけるタイムラインLINE−iとオブジェクトob−nのレイアウトを決定した後、操作部13を使用して演奏開始操作を行う。演奏開始操作が行われると、CPU22は、自動演奏処理34を実行する。この自動演奏処理34では、表示部17の表示領域内に表示されているタイムラインLINE−i(i=1,2…)と各々対応するタイムラインタスクtsk−i(i=1,2…)を立ち上げ、立ち上げたタイムラインタスクtsk−i(i=1,2…)を並列かつ独立に実行する。   The user determines the layout of the timeline LINE-i and the object ob-n in the display area of the display unit 17 by each operation described above, and then performs a performance start operation using the operation unit 13. When a performance start operation is performed, the CPU 22 executes an automatic performance process 34. In the automatic performance process 34, the timeline LINE-i (i = 1, 2,...) Displayed in the display area of the display unit 17 and the corresponding timeline task tsk-i (i = 1, 2,...) The timeline task tsk-i (i = 1, 2,...) That has been started is executed in parallel and independently.

1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、当該タイムラインLINE−iに帰属するオブジェクトob−n(n=1,2…)(すなわち、当該タイムラインLINE−iの占有領域内のオブジェクト)を決定し、当該タイムラインLINE−iに属するオブジェクトob−nが示す音を発音させる制御を周期Tごとに繰り返す。具体的な処理内容は以下の通りである。まず、各タイムラインタスクtsk−iでは、周期Tの間にタイミングポインタ62を当該タイムラインLINE−iの左端から右端まで移動させる操作を周期的に繰り返しつつ、タイミングポインタ62のx座標値を監視する。そして、当該タイムラインLINE−iの占有領域内にある一または複数のオブジェクトob−nのうちいずれかのx座標値(より具体的には、オブジェクトオブジェクトob−nの外延をなす矩形の左上隅のx座標値)とタイミングポインタ62のx座標値が一致すると、そのオブジェクトob−nと対応する音素材を発音させるための処理を行う。   In one timeline task tsk-i corresponding to one timeline LINE-i, an object ob-n (n = 1, 2,...) Belonging to the timeline LINE-i (that is, the timeline LINE-i). And the control for generating the sound indicated by the object ob-n belonging to the timeline LINE-i is repeated every period T. The specific processing contents are as follows. First, in each timeline task tsk-i, the operation of moving the timing pointer 62 from the left end to the right end of the timeline LINE-i during the period T is periodically repeated, and the x coordinate value of the timing pointer 62 is monitored. To do. Then, the x coordinate value of one or a plurality of objects ob-n in the occupied area of the timeline LINE-i (more specifically, the upper left corner of the rectangle that extends the object object ob-n) If the x coordinate value of the timing pointer 62 coincides with the object ob-n, a process for generating a sound material corresponding to the object ob-n is performed.

より具体的には、第1検索設定がなされた状態では、タイムラインタスクtsk−iにおいて、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致する度に、そのオブジェクトob−nに対応付けられた検索結果SR−nを参照し、この検索結果SR−nを構成する音素材の中から1つをランダムに選択してサウンドシステム91から発音させる。第2検索設定がなされた状態では、タイムラインタスクtsk−iにおいて、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致するたびに検索処理35を起動し、オブジェクトob−nの検索条件SC−nを検索処理35に引き渡す。そして、検索処理35から返ってくる検索結果SR−nを構成する音素材の中から1つをランダムに選択してサウンドシステム91から発音させる。   More specifically, in the state where the first search setting is made, in the timeline task tsk-i, the x coordinate value of the object ob-n belonging to the timeline LINE-i matches the x coordinate value of the timing pointer 62. Each time, reference is made to the search result SR-n associated with the object ob-n, and one of the sound materials constituting the search result SR-n is selected at random and the sound system 91 generates a sound. . In the state where the second search setting is made, in the timeline task tsk-i, the search process 35 is performed each time the x coordinate value of the object ob-n belonging to the timeline LINE-i matches the x coordinate value of the timing pointer 62. The search condition SC-n for the object ob-n is delivered to the search process 35. Then, one of the sound materials constituting the search result SR-n returned from the search process 35 is selected at random, and the sound system 91 is caused to sound.

パラメータ連動モードが指定されている場合には、検索結果SR−nの中から音素材を選択するたびに音加工処理36を起動し、この音加工処理36によりその音素材を加工し、加工した音素材をサウンドシステム91から発音させる。具体的には、音加工処理36では、音素材に対し、パラメータ連動モードに関して事前に指定されたピッチ、音量、発音タイミングの遅延量などのパラメータをタイムラインLINE−iからオブジェクトob−nまでの距離dに応じて変化させる加工を行う。 When the parameter interlocking mode is designated, the sound processing process 36 is started each time a sound material is selected from the search result SR-n, and the sound material is processed and processed by the sound processing process 36. Sound material is generated from the sound system 91. Specifically, in the sound processing process 36, parameters such as pitch, volume, and delay amount of sounding timing specified in advance for the parameter interlocking mode are set for the sound material from the timeline LINE-i to the object ob-n. for machining vary depending on the distance d y.

次に具体例を挙げ、本実施形態においてタイムラインLINE−iとオブジェクトob−nを用いて行われる各種の作曲およびその自動演奏の態様を説明する。   Next, specific examples will be described, and various types of composition performed using the timeline LINE-i and the object ob-n in the present embodiment and modes of automatic performance thereof will be described.

たとえば、図8(A)の配置例では、タイムラインLINE−1の一番左の拍案内線63−1の右隣にオブジェクトob−1があり、左から2番目の拍案内線63−2の右隣にオブジェクトob−2があり、左から3番目の拍案内線63−3の右隣にオブジェクトob−3がある。タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)では、図8(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−n(n=1〜3)の各音素材の発音を行う4拍子のフレーズを繰り返す。   For example, in the arrangement example of FIG. 8A, there is an object ob-1 on the right side of the leftmost beat guide line 63-1 of the timeline LINE-1, and the second beat guide line 63-2 from the left. There is an object ob-2 on the right side of, and there is an object ob-3 on the right side of the third beat guide line 63-3 from the left. When the positional relationship between the timeline LINE-1 and the object ob-n (n = 1 to 3) is set as described above, in the automatic performance processing 34 (timeline task tsk-1 corresponding to the timeline LINE-1), FIG. As shown in (B), the sound material of the object ob-n (n = 1 to 3) is pronounced at times t1, t2, t3 among times t1, t2, t3, and t4 obtained by dividing the period T into four equal parts. Repeat the 4-beat phrase to be performed.

図9(A)の配置例は、図8(A)の配置例におけるタイムラインLINE−1の位置を固定したままオブジェクトob−n(n=1〜3)を右に移動させたものである。なお、このようにする代わりに、図8(A)の配置例におけるオブジェクトob−n(n=1〜3)の位置を固定したままタイムラインLINE−1を左に移動させても同様の配置となる。この配置例では、タイムラインLINE−1の拍案内線63−2の右隣にオブジェクトob−1があり、拍案内線63−3の右隣にオブジェクトob−2があり、拍案内線63−4の右隣にオブジェクトob−3がある。タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)では、図9(B)に示すように、時刻t2,t3,t4においてオブジェクトob−n(n=1〜3)の各音素材の発音を行うフレーズを繰り返す。   In the arrangement example of FIG. 9A, the object ob-n (n = 1 to 3) is moved to the right while the position of the timeline LINE-1 in the arrangement example of FIG. 8A is fixed. . Instead of doing this, the same arrangement is possible even if the timeline LINE-1 is moved to the left while the position of the object ob-n (n = 1 to 3) in the arrangement example of FIG. 8A is fixed. It becomes. In this arrangement example, there is an object ob-1 on the right side of the beat guide line 63-2 on the timeline LINE-1, an object ob-2 on the right side of the beat guide line 63-3, and the beat guide line 63-. There is an object ob-3 on the right of 4. When the positional relationship between the timeline LINE-1 and the object ob-n (n = 1 to 3) is set in this manner, the automatic performance process 34 (timeline task tsk-1 corresponding to the timeline LINE-1) has the configuration shown in FIG. As shown in (B), at time t2, t3, t4, a phrase for sound generation of each sound material of the object ob-n (n = 1 to 3) is repeated.

図10(A)の配置例は、図8(A)の配置例におけるタイムラインLINE−1とオブジェクトob−1の位置を固定したままオブジェクトob−2,ob−3を左に移動させたものである。この配置例では、拍案内線63−1の右隣にオブジェクトob−1があり、拍案内線63−1と拍案内線63−2の間のグリッド線gの右隣にオブジェクトob−2があり、拍案内線63−2の右隣にオブジェクトob−3がある。タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)では、図10(B)に示すように、時刻t1,(t1+t2)/2,t2においてオブジェクトob−n(n=1〜3)の各音素材の発音を行うフレーズを繰り返す。   In the arrangement example of FIG. 10A, the objects ob-2 and ob-3 are moved to the left while the positions of the timeline LINE-1 and the object ob-1 in the arrangement example of FIG. 8A are fixed. It is. In this arrangement example, the object ob-1 is located on the right side of the beat guide line 63-1, and the object ob-2 is located on the right side of the grid line g between the beat guide line 63-1 and the beat guide line 63-2. There is an object ob-3 right next to the beat guide line 63-2. When the positional relationship between the timeline LINE-1 and the object ob-n (n = 1 to 3) is set in this way, the automatic performance process 34 (timeline task tsk-1 corresponding to the timeline LINE-1) is performed as shown in FIG. As shown in (B), at time t1, (t1 + t2) / 2, t2, a phrase for sounding each sound material of the object ob-n (n = 1 to 3) is repeated.

また、素材配置作業において、ユーザは、表示部17の表示領域内にタイムラインLINE−iを2つ表示させ、同領域内における1または複数のオブジェクトob−nをその2つのタイムラインLINE−iの両方に属するような配置とすることにより、同じ検索結果SR−nの音素材を含む2種類のフレーズを周期的に繰り返す曲を作ることができる。   Further, in the material placement work, the user displays two timelines LINE-i in the display area of the display unit 17, and displays one or a plurality of objects ob-n in the same area in the two timelines LINE-i. Thus, a song that periodically repeats two types of phrases including the sound material of the same search result SR-n can be created.

図11(A)の配置例では、2つのタイムラインLINE−i(i=1,2)の占有領域内に3つのオブジェクトob−n(n=1〜3)があり、タイムラインLINE−1よりもタイムラインLINE−2が左にずれている。そして、タイムラインLINE−1の拍案内線63−1の右隣(タイムラインLINE−2の拍案内線63−2の右隣)にオブジェクトob−1があり、タイムラインLINE−1の拍案内線63−2の右隣(タイムラインLINE−2の拍案内線63−3の右隣)にオブジェクトob−2があり、タイムラインLINE−1の拍案内線63−3の右隣(タイムラインLINE−2の拍案内線63−4の右隣)にオブジェクトob−3がある。   In the arrangement example of FIG. 11A, there are three objects ob-n (n = 1 to 3) in the occupied area of two timelines LINE-i (i = 1, 2), and timeline LINE-1 Rather than the timeline LINE-2. Then, there is an object ob-1 on the right side of the beat guide line 63-1 of the timeline LINE-1 (right next to the beat guide line 63-2 of the timeline LINE-2), and the beat guide of the timeline LINE-1 There is an object ob-2 on the right side of the line 63-2 (right next to the beat guide line 63-3 on the timeline LINE-2), and right next to the beat guide line 63-3 on the timeline LINE-1 (timeline). There is an object ob-3 on the right side of the beat guide line 63-4 of LINE-2.

タイムラインLINE−i(i=1,2)およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34において、タイムラインLINE−1に対応したタイムラインタスクtsk−1では、図11(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−n(n=1〜3)の各音素材の発音を行う4拍子のフレーズを繰り返す。また、タイムラインLINE−2に対応したタイムラインタスクtsk−2では、図11(B)に示すように、時刻t2,t3、t4においてオブジェクトob−n(n=1〜3)の各音素材の発音を行う4拍子のフレーズを繰り返す。   When the positional relationship between the timeline LINE-i (i = 1, 2) and the object ob-n (n = 1-3) is set as described above, the timeline task corresponding to the timeline LINE-1 is obtained in the automatic performance processing 34. At tsk−1, as shown in FIG. 11B, the object ob-n (n = 1 to 3) at the times t1, t2, and t3 among the times t1, t2, t3, and t4 obtained by equally dividing the period T into four. Repeat the 4-beat phrase that produces each sound material. In the timeline task tsk-2 corresponding to the timeline LINE-2, as shown in FIG. 11B, each sound material of the object ob-n (n = 1 to 3) at time t2, t3, and t4. Repeat the 4-beat phrase that pronounces.

また、素材配置作業において、ユーザは、動作モードをパラメータ連動モードとし、タイムラインLINE−iの占有領域内における複数のオブジェクトob−nの各々とタイムラインLINE−iの距離を変えることにより、1つのフレーズをなす各音の間に強弱をつけた曲を作ることができる。   In the material placement work, the user changes the distance between each of the objects ob-n and the timeline LINE-i within the occupied area of the timeline LINE-i by setting the operation mode to the parameter interlocking mode. You can create a song with strength between the sounds that make up one phrase.

図12(A)の配置例は、図8(A)の配置例における拍案内線63−2の右隣のオブジェクトob−2をその拍案内線63−2の下端付近まで下に移動させたものである。ここで、パラメータ連動モードが指定され、かつ、音量が連動対象のパラメータとなっている状況において、自動演奏処理34を実行させるとする。この場合、タイムラインLINE−1およびオブジェクトob−n(n=1〜3)の位置関係が図12(A)に示すようになっているため、自動演奏処理34(タイムラインLINE−1に対応したタイムラインタスクtsk−1)において起動される音加工処理36では、タイムラインLINE−1の近くにあるオブジェクトob−1およびob−3の各音素材は音量が大きくされ、タイムラインLINE−1から遠くにあるオブジェクトob−2の音素材は音量が小さくされる。この結果、図12(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−n(n=1〜3)の各音素材を強→弱→強という強弱で発音するフレーズが繰り返される。   In the arrangement example of FIG. 12A, the object ob-2 on the right side of the beat guide line 63-2 in the arrangement example of FIG. 8A is moved down to the vicinity of the lower end of the beat guide line 63-2. Is. Here, it is assumed that the automatic performance processing 34 is executed in a situation where the parameter interlocking mode is designated and the volume is a parameter to be interlocked. In this case, since the positional relationship between the timeline LINE-1 and the object ob-n (n = 1 to 3) is as shown in FIG. 12A, the automatic performance process 34 (corresponding to the timeline LINE-1). In the sound processing process 36 activated in the timeline task tsk-1), the volume of the sound materials of the objects ob-1 and ob-3 near the timeline LINE-1 is increased, and the timeline LINE-1 The volume of the sound material of the object ob-2 that is far away is reduced. As a result, as shown in FIG. 12B, each of the objects ob-n (n = 1 to 3) at the times t1, t2, and t3 among the times t1, t2, t3, and t4 obtained by equally dividing the period T into four. The phrase that pronounces the sound material in the order of strong → weak → strong is repeated.

また、素材配置作業において、ユーザは、表示領域内における1または複数のオブジェクトob−nを2つのタイムラインLINE−iの両方に属するような配置とし、その一方のタイムラインLINE−iのx軸方向の幅を縮小または拡大することにより、同じ検索結果SR−nの音素材を含みながら周期T内における各々の発音タイミングを異にする2種類のフレーズからなる曲を作ることができる。   In the material placement work, the user places one or more objects ob-n in the display area so as to belong to both of the two timelines LINE-i, and the x-axis of one timeline LINE-i. By reducing or enlarging the width of the direction, it is possible to create a song composed of two types of phrases having different sounding timings within the period T while including the sound material of the same search result SR-n.

図13(A)の配置例は、図11(A)におけるタイムラインLINE−2のx軸方向の幅を半分に縮め、タイムラインLINE−i(i=1,2)の拍案内線63−1同士が重なるように各々のx軸方向の位置を調整したものである。この配置例では、タイムラインLINE−1の拍案内線63−3の右隣(タイムラインLINE−2の一番右の拍案内線63−5の右隣)のオブジェクトob−3はタイムラインLINE−1にだけに属するものとなっている。また、タイムラインLINE−2は、表示領域内におけるx軸方向の長さがタイムラインLINE−1の半分になっているものの、タイムラインLINE−2が示すフレーズの周期TはタイムラインLINE−1が示すフレーズの周期Tと変わらない。   In the arrangement example of FIG. 13A, the width in the x-axis direction of the timeline LINE-2 in FIG. 11A is reduced by half, and the beat guide line 63- of the timeline LINE-i (i = 1, 2) is obtained. The positions in the x-axis direction are adjusted so that the ones overlap each other. In this arrangement example, the object ob-3 right next to the beat guide line 63-3 of the timeline LINE-1 (right next to the rightmost beat guide line 63-5 of the timeline LINE-2) is the timeline LINE. Belongs to only -1. The timeline LINE-2 has a length in the x-axis direction in the display area that is half that of the timeline LINE-1, but the period T of the phrase indicated by the timeline LINE-2 is the timeline LINE-1. Is the same as the period T of the phrase indicated by.

タイムラインLINE−i(i=1,2)およびオブジェクトob−n(n=1〜3)の位置関係をこのようにすると、自動演奏処理34においてタイムラインLINE−1に対応したタイムラインタスクtsk−1では、図13(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1,t2,t3においてオブジェクトob−1、ob−2およびob−3の各音素材を発音するフレーズを繰り返す。また、タイムラインLINE−2に対応したタイムラインタスクtsk−2では、図13(B)に示すように、時刻t1,t3においてオブジェクトob−1およびob−2の各音素材を発音するフレーズを繰り返す。   When the positional relationship between the timeline LINE-i (i = 1, 2) and the object ob-n (n = 1-3) is set in this way, the timeline task tsk corresponding to the timeline LINE-1 in the automatic performance processing 34. −1, as shown in FIG. 13B, the objects ob-1, ob-2, and ob-3 at the times t1, t2, and t3 among the times t1, t2, t3, and t4 obtained by dividing the period T into four equal parts. Repeat the phrase that pronounces each sound material. Further, in the timeline task tsk-2 corresponding to the timeline LINE-2, as shown in FIG. 13B, phrases that generate the sound materials of the objects ob-1 and ob-2 at times t1 and t3 are displayed. repeat.

また、素材配置作業において、ユーザは、表示領域内における1または複数のオブジェクトob−nを2つのタイムラインLINE−iの両方に属するような配置とし、その一方のタイムラインLINE−iの拍数の設定を変更して拍案内線63−jの数を減らしたり増やすことにより、同じ検索結果SR−nの音素材を含みながら周期Tや拍子を異にする2種類のフレーズを組み合わせた複合リズム(ポリリズム)の曲を作ることができる。   In the material placement work, the user places one or more objects ob-n in the display area so as to belong to both of the two timelines LINE-i, and the number of beats of one timeline LINE-i. By changing the setting of the number of beat guide lines 63-j to reduce or increase the number of beat guide lines 63-j, combined rhythm that combines two phrases with different periods T and time signatures while including the sound material of the same search result SR-n (Polyrhythm) songs can be made.

図14(A)の配置例において、タイムラインLINE−1およびLINE−2は、表示領域内において水平方向の長さが同じであり、拍案内線63−1同士が重なるように各々のx軸方向の位置が調整されている。ここで、タイムラインLINE−1の左端と右端の間を4等分した位置には拍案内線63−2,63−3,63−4がある。また、タイムラインLINE−2の拍案内線の本数はタイムラインLINE−1よりも1本少なく、タイムラインLINE−2の左端と右端の間を3等分した位置に拍案内線63−2,63−3がある。そして、タイムラインLINE−2が示すフレーズの周期T’はタイムラインLINE−1が示すフレーズの周期Tの3/4の長さになっている。オブジェクトob−1は、タイムラインLINE−1およびLINE−2の両方に属しており、タイムラインLINE−1およびLINE−2の各拍案内線63−1の右側に位置している。   In the arrangement example of FIG. 14A, the timelines LINE-1 and LINE-2 have the same horizontal length in the display area, and the respective x-axes so that the beat guide lines 63-1 overlap each other. The position of the direction has been adjusted. Here, there are beat guide lines 63-2, 63-3, 63-4 at positions obtained by equally dividing the left end and the right end of the timeline LINE-1 into four. In addition, the number of beat guide lines of the time line LINE-2 is one less than that of the time line LINE-1, and the beat guide lines 63-2, 63-2, 63-2, 63, 63-3. The period T ′ of the phrase indicated by the timeline LINE-2 is ¾ of the period T of the phrase indicated by the timeline LINE-1. The object ob-1 belongs to both of the timelines LINE-1 and LINE-2, and is located on the right side of each beat guide line 63-1 of the timelines LINE-1 and LINE-2.

このような状況において、自動演奏処理34を実行させると、自動演奏処理34においてタイムラインLINE−1に対応したタイムラインタスクtsk−1では、図14(B)に示すように、周期Tを4等分した時刻t1,t2,t3,t4のうち時刻t1においてオブジェクトob−1の音素材を発音する4拍子のフレーズを繰り返す。また、タイムラインLINE−2に対応したタイムラインタスクtsk−2では、図14(B)に示すように、周期Tの3/4の長さの周期T’を3等分した時刻t1’,t2’,t3’のうち時刻t1’においてオブジェクトob−1の音素材を発音する3拍子のフレーズを繰り返す。   In this situation, when the automatic performance process 34 is executed, in the timeline task tsk-1 corresponding to the timeline LINE-1 in the automatic performance process 34, as shown in FIG. Of the equally divided times t1, t2, t3, and t4, a four-beat phrase that repeats the sound material of the object ob-1 at the time t1 is repeated. In the timeline task tsk-2 corresponding to the timeline LINE-2, as shown in FIG. 14B, the time t1 ′ obtained by dividing the period T ′, which is 3/4 of the period T, into three equal parts. Of t2 ′ and t3 ′, the three-beat phrase that repeats the sound material of the object ob-1 at time t1 ′ is repeated.

本実施形態において、ユーザは、自動演奏処理34の実行中にタイムラインLINE−iを移動させることが可能である。このタイムライン位置変更操作が行われると、タイムライン管理処理31では、操作されたタイムラインLINE−iの位置に関する情報を更新する。自動演奏処理34では、このタイムライン位置変更操作に応じて時々刻々と更新されるタイムラインLINE−iの位置に関する情報が参照される。図15(A)に示す例では、パラメータ連動モードが指定されており、かつ、連動対象のパラメータとして音量が指定されている。このため、図15(A)に示すように、オブジェクトob−1の位置を変えずにタイムラインLINE−1を上に移動させてオブジェクトob−1から遠ざけると、自動演奏処理34において起動される音加工処理36の結果、図15(B)に示すように、発音されるオブジェクトob−1の音素材の音量が徐々に小さくなってゆく。パラメータ連動モードにおける連動対象のパラメータとして発音タイミングの遅延量を指定した場合には、自動演奏中にタイムラインLINE−1の位置を上方向に移動させると、そのタイムラインLINE−1の上方向への移動量に応じてオブジェクトob−1の音素材の発音タイミングを遅延させる擬似ディレイ効果を得ることができる。   In the present embodiment, the user can move the timeline LINE-i during execution of the automatic performance process 34. When this timeline position change operation is performed, the timeline management process 31 updates information regarding the position of the operated timeline LINE-i. In the automatic performance processing 34, information on the position of the timeline LINE-i that is updated every moment according to the timeline position changing operation is referred to. In the example shown in FIG. 15A, the parameter interlocking mode is specified, and the volume is specified as the parameter to be interlocked. For this reason, as shown in FIG. 15A, when the timeline LINE-1 is moved upward without changing the position of the object ob-1, the automatic performance processing 34 is activated. As a result of the sound processing process 36, as shown in FIG. 15B, the volume of the sound material of the sounded object ob-1 gradually decreases. When the delay amount of the sound generation timing is specified as a parameter to be linked in the parameter linkage mode, if the position of the timeline LINE-1 is moved upward during automatic performance, the timeline LINE-1 is moved upward. It is possible to obtain a pseudo delay effect that delays the sound generation timing of the sound material of the object ob-1 according to the movement amount of the object ob-1.

以上の説明から明らかなように、表示部17に表示されたタイムラインおよびオブジェクトの各々の内容と各々の位置関係により自動演奏される曲の内容が定まる。すなわち、表示部17に表示されたタイムラインおよびオブジェクトのレイアウト情報は曲データとしての役割を果たす。本実施形態では、この曲データの再利用を可能にするための手段が設けられている。さらに詳述すると、ユーザは、素材配置作業を中断するときに、操作部13を使用してレイアウト保存操作を行うことができる。このレイアウト保存操作が行われると、作曲情報管理処理32では、表示部17の表示領域内のタイムラインおよびオブジェクトのレイアウト情報をハードディスク25に保存する。このレイアウト情報は、表示領域内におけるタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)の各々の位置(x座標値.y座標値)を示す配置情報とそれらのオブジェクトob−n(n=1,2…)のオブジェクト管理情報(検索条件SC−nおよび検索結果SR−n)のセットである。   As is clear from the above description, the contents of the music played automatically are determined by the contents of each of the timeline and objects displayed on the display unit 17 and the positional relationship thereof. That is, the timeline and the object layout information displayed on the display unit 17 serve as music data. In the present embodiment, means for enabling reuse of the music data is provided. More specifically, the user can perform a layout saving operation using the operation unit 13 when interrupting the material placement work. When this layout saving operation is performed, the composition information management process 32 saves the timeline and the object layout information in the display area of the display unit 17 in the hard disk 25. This layout information indicates the respective positions (x coordinate value. Y coordinate value) of the timeline LINE-i (i = 1, 2,...) And the object ob-n (n = 1, 2,...) In the display area. This is a set of arrangement information and object management information (search conditions SC-n and search results SR-n) of those objects ob-n (n = 1, 2,...).

また、ユーザは、作業を再開するときに操作部13を使用してレイアウト読出操作を行うことができる。このレイアウト読出操作が行われると、作曲情報管理処理32では、ハードディスク25に記憶されたレイアウト情報を読み出し、読み出したレイアウト情報からタイムラインおよびオブジェクトの配置情報とオブジェクト管理情報を取り出す。そして、作曲情報管理処理32では、配置情報が示す位置にタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)を表示させるとともに、オブジェクト管理情報に含まれる特徴量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME、PVALUEと要検索数Numを検索条件SC−nとしてRAM23に書き込む。この状態において、ユーザは、タイムライン移動操作やオブジェクト移動操作によって、表示部17の表示領域内に復元されたタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)のレイアウトをさらに変更することができる。曲データであるレイアウト情報は、それが作成された音検索・演奏装置10以外の音検索・演奏装置10に転送して利用することも可能である。この場合、転送元と転送先とで曲データベース26や音素材データベース27,28の内容が異なっていると、曲データに基づく自動演奏の内容が転送元と転送先とで異なったものとなる。曲データ中に含まれるオブジェクトに基づいて検索される音素材が転送元と転送先とで異なったものになる可能性があるからである。 In addition, the user can perform a layout read operation using the operation unit 13 when resuming work. When this layout read operation is performed, the composition information management process 32 reads layout information stored in the hard disk 25 and extracts timeline and object arrangement information and object management information from the read layout information. In the composition information management process 32, the timeline LINE-i (i = 1, 2,...) And the object ob-n (n = 1, 2,...) Are displayed at the position indicated by the arrangement information, and the object management information is displayed. The included feature quantities P LOW , P MID-LOW , P MID-HIGH , P HIGH , P TIME , P VALUE and the number of search required Num are written in the RAM 23 as the search condition SC-n. In this state, the user performs the timeline LINE-i (i = 1, 2,...) And the object ob-n (n = 1) restored in the display area of the display unit 17 by the timeline moving operation or the object moving operation. , 2...) Can be further changed. The layout information, which is song data, can also be transferred to a sound search / performance device 10 other than the sound search / performance device 10 in which it is created. In this case, if the contents of the song database 26 and the sound material databases 27 and 28 are different between the transfer source and the transfer destination, the contents of the automatic performance based on the song data are different between the transfer source and the transfer destination. This is because the sound material searched based on the object included in the song data may be different between the transfer source and the transfer destination.

また、本実施形態において、ユーザは、所望の時間を空けて、操作部13を使用してログ記録開始操作とログ記録終了操作を行うことができる。ログ記録開始操作が行われると、操作ログ管理処理37では、以後、ログ記録終了操作が行われるまでの間、表示領域内におけるタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)の各々の動きを示すシーケンスデータを生成し、それらのシーケンスデータのセットをログ情報としてハードディスク25に記憶する。そして、ユーザが操作部13を使用してログ再生操作を行うと、操作ログ管理処理37では、ハードディスク25に記憶されたログ情報を読み出し、そのログ情報をなす各シーケンスデータに従って、表示領域内におけるタイムラインLINE−i(i=1,2…)とオブジェクトob−n(n=1,2…)の各々の動きを再現する。   In the present embodiment, the user can perform a log recording start operation and a log recording end operation using the operation unit 13 with a desired time interval. When the log recording start operation is performed, in the operation log management process 37, the timeline LINE-i (i = 1, 2,...) And the object ob- in the display area are thereafter processed until the log recording end operation is performed. Sequence data indicating each movement of n (n = 1, 2,...) is generated, and a set of the sequence data is stored in the hard disk 25 as log information. When the user performs a log reproduction operation using the operation unit 13, the operation log management process 37 reads the log information stored in the hard disk 25, and in the display area according to each sequence data forming the log information. The movements of the timeline LINE-i (i = 1, 2,...) And the object ob-n (n = 1, 2,...) Are reproduced.

以上説明した本実施形態によると、以下の効果が得られる。
上記実施形態では、音検索・演奏プログラム29は、操作部13の操作に応じて、表示部17の表示領域内におけるオブジェクトob−nが示す音素材の検索条件SC−nとそのオブジェクトob−nの形態とを連動させて変化させる。よって、ユーザは、オブジェクトob−nの形態からそのオブジェクトob−nについて自らが指定している検索条件SC−nを把握することができ、自らのイメージにマッチした音素材の検索をより簡単に行うことができる。また、ユーザは、後刻、オブジェクトob−nを見たとき、そのオブジェクトob−nの形態からそのオブジェクトob−nが示す音素材の特徴あるいはそのオブジェクトob−nについて指定した音素材の検索条件SC−nを容易に想像することができる。
According to this embodiment described above, the following effects can be obtained.
In the above-described embodiment, the sound search / performance program 29 responds to the operation of the operation unit 13 and the sound material search condition SC-n indicated by the object ob-n in the display area of the display unit 17 and its object ob-n. It is changed in conjunction with the form of. Therefore, the user can grasp the search condition SC-n that he / she has specified for the object ob-n from the form of the object ob-n, and can more easily search for sound material that matches his / her image. It can be carried out. Further, when the user looks at the object ob-n later, the feature of the sound material indicated by the object ob-n from the form of the object ob-n or the sound material search condition SC specified for the object ob-n. -N can be easily imagined.

また、上記実施形態では、音検索・演奏プログラム29は、表示部17の表示領域内に複数のタイムラインLINE−iが表示されている場合は、その複数のタイムラインLINE−iの各々に対応した複数の種類のフレーズを時間軸上で重ね合わせた曲を発音させる。そして、表示領域内におけるあるオブジェクトob−nが複数のタイムラインLINE−iに属する場合は、複数のタイムラインLINE−iのx軸方向におけるそのオブジェクトob−nの位置に応じた時刻を、複数のフレーズの各々におけるそのオブジェクトob−nに応じた音の発音タイミングとする。よって、ユーザは、表示部17の表示領域内におけるタイムラインLINE−iとオブジェクトob−nを、1つまたは複数のオブジェクトob−nが複数のタイムラインLINE−iに属するような位置関係とすることにより、複数の周期のフレーズを時間軸上で重ね合わせた曲を作ることができる。   In the above embodiment, the sound search / performance program 29 corresponds to each of the plurality of timelines LINE-i when a plurality of timelines LINE-i are displayed in the display area of the display unit 17. A song is created by superimposing multiple types of phrases on the time axis. When a certain object ob-n in the display area belongs to a plurality of timelines LINE-i, a plurality of times corresponding to the positions of the objects ob-n in the x-axis direction of the plurality of timelines LINE-i are set. The sound generation timing corresponding to the object ob-n in each of the phrases is set. Therefore, the user sets the timeline LINE-i and the object ob-n in the display area of the display unit 17 to a positional relationship such that one or more objects ob-n belong to the plurality of timelines LINE-i. Thus, it is possible to create a song in which phrases of a plurality of periods are superimposed on the time axis.

また、ユーザは、オブジェクト保存操作によってハードディスク25に保存したオブジェクト管理情報、レイアウト保存操作によってハードディスク25に保存したレイアウト情報、ログ記録開始操作とログ記録終了操作によってハードディスク25に保存したログ情報などを、音検索・演奏プログラム29をインストールした他のコンピュータのハードディスク25にコピーし、そのコンピュータを用いて素材配置作業を続けることもできる。   The user also stores object management information saved in the hard disk 25 by the object saving operation, layout information saved in the hard disk 25 by the layout saving operation, log information saved in the hard disk 25 by the log recording start operation and log recording end operation, and the like. It is also possible to copy the sound search / performance program 29 to the hard disk 25 of another computer in which the sound search / performance program 29 is installed, and continue the material placement work using that computer.

また、ユーザは、素材配置作業の途中で、それまで曲データベース26に記憶されていた曲データmd−k(k=1,2…)以外の曲データmd’−k(k=1,2…)とそれらの曲データmd’−k(k=1,2…)の解析結果であるレコード群を他のユーザから取得して曲データベース26と音素材データベース27,28に各々記憶させ、以後の作業を続けることもできる。表示部17の表示領域内のオブジェクトob−nの形態として指定している検索条件SC−nが同じであっても、検索の対象となる曲データベース26や音素材データベース27,28の収録内容が変われば、その検索結果SR−nとして得られる音素材も変わる。よって、ユーザは、表示部17の表示領域内におけるオブジェクトob−nとタイムラインLINE−iのレイアウトを変えずに曲データベース26と音素材データベース27,28の収録内容を変えることにより、周期Tごとに繰り返すフレーズの各音の発音タイミングは同じで各音の聞こえ方を微妙に変えた曲を作ることができる。   Further, during the material arrangement work, the user sets music data md′-k (k = 1, 2,...) Other than the music data md-k (k = 1, 2...) Stored in the music database 26 until then. ) And the record group that is the analysis result of the song data md′-k (k = 1, 2,...) Are obtained from other users and stored in the song database 26 and the sound material databases 27 and 28, respectively. You can continue working. Even if the search condition SC-n specified as the form of the object ob-n in the display area of the display unit 17 is the same, the recorded contents of the music database 26 and the sound material databases 27 and 28 to be searched are the same. If it changes, the sound material obtained as the search result SR-n also changes. Therefore, the user can change the recorded contents of the music database 26 and the sound material databases 27 and 28 without changing the layout of the object ob-n and the timeline LINE-i in the display area of the display unit 17, thereby changing the period T. The sounding timing of each sound in the repeated phrase is the same, and you can create a song with a slightly different way of hearing each sound.

以上、この発明の一実施形態について説明したが、この発明には他にも実施形態があり得る。例えば、以下の通りである。
(1)上記実施形態において、CPU22は、表示部17の表示領域内にあるオブジェクトob−nが複製された場合、複製したオブジェクトob’−nが示す音の発音態様を決めるパラメータと複製元のオブジェクトob−nが示す音の発音態様を決めるパラメータを対応して制御するようにしてもよい。
(2)上記実施形態では、曲データmd−k(k=1,2…)に含まれる音素材のうちエッジ音とダスト音の音素材を、オブジェクトob−nが示す音として発音させた。しかし、エッジ音やダスト音以外の、音の特徴から分類できる音の単位全般の音素材を発音させてもよい。
Although one embodiment of the present invention has been described above, the present invention may have other embodiments. For example, it is as follows.
(1) In the embodiment described above, when the object ob-n in the display area of the display unit 17 is duplicated, the CPU 22 determines the sound generation mode of the sound indicated by the duplicated object ob′-n and the duplication source. The parameter that determines the sound generation mode indicated by the object ob-n may be controlled correspondingly.
(2) In the above embodiment, the sound material of the edge sound and the dust sound among the sound materials included in the music data md-k (k = 1, 2,...) Is generated as the sound indicated by the object ob-n. However, sound materials in general sound units other than edge sounds and dust sounds that can be classified from sound characteristics may be generated.

(3)上記実施形態では、タイムラインLINE−iとオブジェクトob−nの位置関係に基づいて、各タイムラインLINE−iに属するオブジェクトob−nを決定するようにしたが、タイムラインLINE−iとオブジェクトob−nとの帰属関係を決定する方法はこれに限定されるものではない。例えば、タイムラインLINE−iとオブジェクトob−nが表示された状態において、マウス14等のポインティングデバイスの操作により1つのタイムラインLINE−iに帰属させる1または複数オブジェクトob−nを逐一指示させ、あるいは1つのタイムラインLINE−iに帰属させる1または複数のオブジェクトob−nを囲む曲線を描かせる操作を行わせることにより各タイムラインLINE−iに属するオブジェクトob−nを決定するようにしてもよい。 (3) In the above embodiment, the object ob-n belonging to each timeline LINE-i is determined based on the positional relationship between the timeline LINE-i and the object ob-n, but the timeline LINE-i The method for determining the belonging relationship between the object ob-n and the object ob-n is not limited to this. For example, in a state where the timeline LINE-i and the object ob-n are displayed, one or more objects ob-n to be attributed to one timeline LINE-i are instructed one by one by operating a pointing device such as the mouse 14. Alternatively, the object ob-n belonging to each timeline LINE-i may be determined by performing an operation of drawing a curve surrounding one or more objects ob-n belonging to one timeline LINE-i. Good.

(4)上記実施形態において、オブジェクトob−nの形状は、円形、多角形、自由図形などであってもよい。この場合において、それらのオブジェクトob−nの形状の変更に対応させて検索条件SC−nを変化させてもよい。たとえば、オブジェクトob−nを五角形の形状とし、その中心から5つの頂点の各々までの長さに応じて、特徴量Pや要検索数Numといった5種類の検索条件SC−nを個別に制御するようにしてもよい。 (4) In the above embodiment, the shape of the object ob-n may be a circle, a polygon, a free figure, or the like. In this case, the search condition SC-n may be changed corresponding to the change in the shape of the object ob-n. For example, the object ob-n has a pentagonal shape, and five types of search conditions SC-n such as the feature amount P and the number of search required Num are individually controlled according to the length from the center to each of the five vertices. You may do it.

(5)上記実施形態における検索条件指定操作では、オブジェクトob−nの表示色の濃淡を変化させたが、表示色の色彩を変化させてもよい。
(6)上記実施形態において、CPU22は、操作部13の操作に応じて、表示部17の表示領域内に表示されたタイムラインLINE−i(i=1,2…)が示すフレーズの各々における小節数や拍子を設定するようにしてもよい。この場合において、CPU22は、タイムラインLINE−iが示すフレーズの拍子に対応させてそのライムラインLINE−iの拍案内線63−j(j=1,2…)の数を増減するとよい。
(5) In the search condition designation operation in the above embodiment, the shade of the display color of the object ob-n is changed, but the color of the display color may be changed.
(6) In the above embodiment, the CPU 22 in each of the phrases indicated by the timeline LINE-i (i = 1, 2,...) Displayed in the display area of the display unit 17 according to the operation of the operation unit 13. You may make it set the number of measures and a time signature. In this case, the CPU 22 may increase or decrease the number of beat guide lines 63-j (j = 1, 2,...) Of the lime line LINE-i in correspondence with the time signature of the phrase indicated by the time line LINE-i.

(7)上記実施形態において、CPU22は、操作部13の操作に応じて、タイムラインLINE−i(i=1,2…)が示すフレーズの各々におけるテンポを決めるパラメータ(たとえば、BPM(Beats Per Minute ))を設定してもよい。また、CPU22は、操作部13の操作に応じて、タイムラインLINE−i(i=1,2…)が示すフレーズの各々における1拍あたりの時間長を決めるパラメータ(たとえば、タイムベース(分解能))を設定してもよい。 (7) In the above embodiment, the CPU 22 determines a tempo in each of the phrases indicated by the timeline LINE-i (i = 1, 2,...) According to the operation of the operation unit 13 (for example, BPM (Beats Per Minute)) may be set. Further, the CPU 22 determines a parameter (for example, time base (resolution)) for determining the length of time per beat in each of the phrases indicated by the timeline LINE-i (i = 1, 2,...) According to the operation of the operation unit 13. ) May be set.

(8)上記実施形態において、CPU22は、1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、当該タイムラインLINE−iの占有領域内にあるオブジェクトob−nの左上隅のx座標値とタイミングポインタ62のx座標値が一致したときに、そのオブジェクトob−nと対応する音素材を発音させた。しかし、オブジェクトob−nの中心、左下隅、右上隅、右下隅などの他の位置のx座標値とタイミングポインタ62のx座標値が一致したときに、そのオブジェクトob−nと対応する音素材を発音させてもよい。 (8) In the above embodiment, in one timeline task tsk-i corresponding to one timeline LINE-i, the CPU 22 has an upper left corner of the object ob-n in the occupied area of the timeline LINE-i. When the x coordinate value of the object coincides with the x coordinate value of the timing pointer 62, the sound material corresponding to the object ob-n is generated. However, when the x coordinate value of the other position such as the center, lower left corner, upper right corner, and lower right corner of the object ob-n matches the x coordinate value of the timing pointer 62, the sound material corresponding to the object ob-n. May be pronounced.

(9)上記実施形態では、CPU22は、タイムラインLINE−iにおける拍案内線63−j(j=1,2…)の数に関わらず、オブジェクト出現操作によって指定されたタイムラインLINE−i内の任意の位置にオブジェクトob−nを出現させた。しかし、CPU22は、タイムラインLINE−i内に出現させたオブジェクトob−nの位置をそのx座標値(たとえば、オブジェクトob−nの左上隅のx座標値)と直近の拍案内線63−jのx座標値とが一致するように補正するクオンタイズ制御を行ってもよい。 (9) In the embodiment described above, the CPU 22 does not change the timeline LINE-i specified by the object appearance operation regardless of the number of beat guide lines 63-j (j = 1, 2,...) In the timeline LINE-i. The object ob-n appears at an arbitrary position of. However, the CPU 22 determines the position of the object ob-n that has appeared in the timeline LINE-i as its x-coordinate value (for example, the x-coordinate value at the upper left corner of the object ob-n) and the latest beat guide line 63-j. Quantization control may be performed to correct so that the x-coordinate values match.

(10)上記実施形態において、タイムラインLINE−iは、水平方向に延びた直線画像であった。しかし、タイムランLINE−iは、曲線(閉曲線を含む)であってもよい。
(11)上記実施形態において、タイムランLINE−i内のタイミングポインタ62は、タイムランLINE−iの左端から右端までの軌道を等速に移動する必要はない。たとえば、タイミングポインタ62を、タイムランLINE−iの左端から右端までの軌道上のある区間を拡大、縮小したように移動させてもよい。
(10) In the above embodiment, the timeline LINE-i is a linear image extending in the horizontal direction. However, the time run LINE-i may be a curve (including a closed curve).
(11) In the above embodiment, the timing pointer 62 in the time run LINE-i does not need to move at a constant speed on the trajectory from the left end to the right end of the time run LINE-i. For example, the timing pointer 62 may be moved so that a certain section on the trajectory from the left end to the right end of the time run LINE-i is enlarged or reduced.

(12)上記実施形態における音加工処理36では、CPU22は、ピッチ、音量、発音タイミングの遅延量などのパラメータを変化させた。しかし、CPU22は、音加工処理36では、リバーブ処理やイコライザ処理などを行い、これらの処理内容を決定づけるパラメータをタイムラインLINE−iからオブジェクトob−nまでの距離dに応じて変化させてもよい。 (12) In the sound processing 36 in the above embodiment, the CPU 22 changes parameters such as the pitch, volume, and delay in sound generation timing. However, CPU 22 is in the sound processing 36 performs such as reverb processing and equalizer process, even when the parameters which determine these processing content from the timeline LINE-i is changed depending on the distance d y to the object ob-n Good.

(13)上記実施形態では、CPU22は、パラメータ連動モードが指定されている場合、タイムラインLINE−iからオブジェクトob−nまでの距離dに応じて、そのオブジェクトob−nと対応する音素材のピッチ、音量、発音タイミングの遅延量などを変化させた。しかし、CPU22は、タイムラインLINE−iからオブジェクトob−nまでの距離dが大きいほど、そのオブジェクトob−nと対応する検索結果SR−nを構成する複数の音素材の中のより低いピッチをもった音素材を選択し、タイムラインLINE−iからオブジェクトob−nまでの距離dが小さいほど、そのオブジェクトob−nと対応する検索結果SR−nを構成する複数の音素材の中のより高いピッチをもった音素材を選択する、といった制御を行ってもよい。 (13) In the above embodiment, CPU 22, when the parameter-ganging mode is designated, the sound depending on the distance d y from the time line LINE-i to the object ob-n, corresponding to the object ob-n material The pitch, volume, and sounding timing delay were changed. However, CPU 22 may, as the distance d y from the time line LINE-i to the object ob-n is large, the lower the pitch of a plurality of sound materials constituting the search result SR-n corresponding to the object ob-n select the sound material having, as the distance d y from the time line lINE-i to the object ob-n is small, a plurality of sound materials constituting the search result SR-n corresponding to the object ob-n Control may be performed such as selecting a sound material having a higher pitch.

(14)上記実施形態における操作ログ管理処理37では、CPU22は、マニュアル演奏操作に従って表示領域内のオブジェクトob−nと対応づけられた音素材を発音させるたびに、発音させた音素材とその発音時刻の対をシーケンスデータ化し、このシーケンスデータをオブジェクトob−nのオブジェクト管理情報に含めるようにしてもよい。 (14) In the operation log management process 37 in the above embodiment, each time the CPU 22 causes the sound material associated with the object ob-n in the display area to sound according to the manual performance operation, the sound material that has been sounded and its sounding. The time pair may be converted into sequence data, and this sequence data may be included in the object management information of the object ob-n.

(15)上記実施形態において、CPU22は、表示部17の表示領域内に表示されているタイムラインLINE−iとそのタイムラインLINE−iに帰属する一または複数のオブジェクトob−nとの位置関係に従って生成されるフレーズをシーケンスデータ化し、このシーケンスデータを新たなオブジェクトob−n(たとえば、オブジェクトob−10とする)と対応づけてもよい。そして、そのオブジェクトob−10を別のタイムラインLINE−i(たとえば、タイムラインLINE−20とする)に帰属させた場合に、オブジェクトob−10とタイムラインLINE−20との位置関係によって決まる発音タイミングにおいてオブジェクトob−10と対応づけられているシーケンスデータを再生するようにするとよい。 (15) In the above embodiment, the CPU 22 determines the positional relationship between the timeline LINE-i displayed in the display area of the display unit 17 and one or more objects ob-n belonging to the timeline LINE-i. May be converted into sequence data, and the sequence data may be associated with a new object ob-n (for example, object ob-10). When the object ob-10 is attributed to another timeline LINE-i (for example, the timeline LINE-20), the pronunciation determined by the positional relationship between the object ob-10 and the timeline LINE-20 It is preferable to reproduce the sequence data associated with the object ob-10 at the timing.

(16)上記実施形態において、CPU22は、表示部17の表示領域内におけるタイムラインLINE−iの位置が上にあるほどタイミングポインタ62の移動の速度を速くし、タイムラインLINE−iの位置が下にあるほどタイミングポインタ62の移動の速度を遅くする、といった制御を行ってもよい。また、表示部17の表示領域内に配置されたオブジェクトob−nをあたかも落下しているかのように上から下に向かって移動させ、重力などを定義するパラメータの設定に従ってその移動の速度を制御してもよい。 (16) In the above embodiment, the CPU 22 increases the speed of movement of the timing pointer 62 as the position of the timeline LINE-i in the display area of the display unit 17 is higher, and the position of the timeline LINE-i is You may perform control of making the speed of the movement of the timing pointer 62 slow, so that it is below. Further, the object ob-n arranged in the display area of the display unit 17 is moved from the top to the bottom as if it were falling, and the speed of the movement is controlled according to the setting of a parameter that defines gravity or the like. May be.

(17)上記実施形態において、オブジェクトob−nは音素材の検索条件SR−nを示す画像であり、1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、CPU22は、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致したとき、そのオブジェクトob−nの検索条件SR−nに従った検索結果SR−nを構成する複数の音素材の中の一つを選択してサウンドシステム91から発音させた。しかし、オブジェクトob−nを発音対象とする一または複数の音素材そのものを示す画像としてもよい。この態様では、オブジェクトob−n(n=1,2…)の各々と一又は複数の音素材とを予め対応づけておく。そして、1つのタイムラインLINE−iと対応する1つのタイムラインタスクtsk−iでは、CPU22は、タイムラインLINE−iに属するオブジェクトob−nのx座標値とタイミングポインタ62のx座標値が一致したとき、そのオブジェクトob−nと対応づけられている音素材をサウンドシステム91から発音させる。 (17) In the above embodiment, the object ob-n is an image showing the sound material search condition SR-n. In one timeline task tsk-i corresponding to one timeline LINE-i, the CPU 22 When the x-coordinate value of the object ob-n belonging to the timeline LINE-i matches the x-coordinate value of the timing pointer 62, the search result SR-n according to the search condition SR-n of the object ob-n is formed. One of a plurality of sound materials was selected and sounded from the sound system 91. However, the image may be an image showing one or a plurality of sound materials themselves whose sound is the object ob-n. In this aspect, each of the objects ob-n (n = 1, 2,...) Is associated with one or a plurality of sound materials in advance. In one timeline task tsk-i corresponding to one timeline LINE-i, the CPU 22 matches the x coordinate value of the object ob-n belonging to the timeline LINE-i and the x coordinate value of the timing pointer 62. Then, the sound material associated with the object ob-n is generated from the sound system 91.

(18)上記実施形態は、本発明を、ループシーケンサに類するアプリケーションプログラムに適用したものであった。しかし、本発明は、ループシーケンサ以外のシーケンサにも適用可能である。たとえば、テンポや拍子などを異ならせた複数のタイムラインLINE−i(i=1,2…)であって各々が一曲分の演奏時間に相当するタイムラインLINE−i(i=1,2…)を表示部17の表示領域内に表示させ、それらの複数のタイムラインLINE−i(i=1,2…)が1または複数のオブジェクトob−nを共有するように各々の位置を指定してもよい。また、1曲分の演奏時間に相当するタイムラインLINE−1とその1曲分の演奏時間の間に繰り返すフレーズの周期Tに相当するタイムラインLINE−2とを表示部17の表示領域内に表示させ、それらのタイムラインLINE−1、LINE−2が1または複数のオブジェクトob−nを共有するように各々の位置を指定してもよい。 (18) In the above embodiment, the present invention is applied to an application program similar to a loop sequencer. However, the present invention can be applied to a sequencer other than the loop sequencer. For example, a plurality of timelines LINE-i (i = 1, 2,...) Having different tempos, time signatures, etc., each corresponding to a performance time for one song, LINE-i (i = 1, 2). ...) Are displayed in the display area of the display unit 17, and each of the plurality of timelines LINE-i (i = 1, 2,...) Is designated so as to share one or more objects ob-n. May be. Further, a timeline LINE-1 corresponding to the performance time for one song and a timeline LINE-2 corresponding to the period T of the phrase repeated during the performance time for one song are displayed in the display area of the display unit 17. Each position may be specified so that the timelines LINE-1 and LINE-2 share one or more objects ob-n.

10…音検索・演奏装置、11…インターフェース、13…操作部、14…マウス、15…キーボード、16…ドラムパッド、17…表示部、20…制御部、22…CPU、23…RAM、24…ROM、25…ハードディスク、26…曲データベース、27,28…音素材データベース、29…音検索・演奏プログラム、91…サウンドシステム。

DESCRIPTION OF SYMBOLS 10 ... Sound search and performance apparatus, 11 ... Interface, 13 ... Operation part, 14 ... Mouse, 15 ... Keyboard, 16 ... Drum pad, 17 ... Display part, 20 ... Control part, 22 ... CPU, 23 ... RAM, 24 ... ROM, 25 ... Hard disk, 26 ... Music database, 27, 28 ... Sound material database, 29 ... Sound search / performance program, 91 ... Sound system.

Claims (4)

各音素材とそれらの音素材の特徴量を示す複数種類の特徴量データとを対応づけて記憶する記憶手段と、
操作手段と、
表示手段と、
音素材の特徴量の検索条件を示す画像であるオブジェクトを前記表示手段に表示させ、前記操作手段の操作に応じて、前記オブジェクトの形態と前記オブジェクトが示す特徴量の検索条件とを対応させて変化させ、前記記憶手段に記憶された音素材の中から、前記検索条件が示す特徴量に近い特徴量を有する音素材を検索する制御手段と
を具備することを特徴とする音検索装置。
Storage means for storing each sound material and a plurality of types of feature data indicating the feature values of the sound material in association with each other;
Operation means;
Display means;
An object, which is an image showing a search condition for a feature value of sound material, is displayed on the display means, and the form of the object and the search condition for the feature value indicated by the object are associated with each other according to the operation of the operation means. A sound search apparatus comprising: control means for searching for a sound material having a feature value close to the feature value indicated by the search condition from among the sound materials stored in the storage means.
前記オブジェクトは、音素材の特徴量および要検索数の検索条件を示す画像であり、
前記制御手段は、
前記操作手段の操作に応じて、前記オブジェクトの形態と、前記オブジェクトが示す特徴量および要検索数の検索条件とを対応させて変化させ、前記記憶手段に記憶された音素材の中から、前記検索条件が示す特徴量に近い特徴量を有する音素材を前記検索条件が示す要検索数と同じ数だけ検索する
ことを特徴とする請求項1に記載の音検索装置。
The object is an image showing a search condition for the feature amount of the sound material and the number of search required,
The control means includes
In accordance with the operation of the operation means, the form of the object, the feature amount indicated by the object, and the search conditions for the number of search required are changed correspondingly, and from the sound material stored in the storage means, The sound search device according to claim 1, wherein the sound material having a feature amount close to the feature amount indicated by the search condition is searched in the same number as the number of search required indicated by the search condition.
前記制御手段は、前記操作手段の操作に応じて、前記表示手段の表示領域内におけるオブジェクトを前記表示領域内に複製し、前記表示領域内に複製したオブジェクトが示す検索条件とその複製元のオブジェクトが示す検索条件とを共通に更新する
ことを特徴とする請求項4に記載の演奏装置。
The control means duplicates an object in the display area of the display means in the display area in accordance with an operation of the operation means, a search condition indicated by the duplicated object in the display area, and an object of the duplication source 5. The performance device according to claim 4, wherein the search condition indicated by is updated in common.
コンピュータに、
各音素材とそれらの音素材の特徴量を示す複数種類の特徴量データとを対応づけて記憶する記憶手段と、
音素材の特徴量の検索条件を示す画像であるオブジェクトを表示手段に表示させ、操作手段の操作に応じて、前記オブジェクトの形態と前記オブジェクトが示す特徴量の検索条件とを対応させて変化させ、前記記憶手段に記憶された音素材の中から、前記検索条件が示す特徴量に近い特徴量を有する音素材を検索する制御手段と
を実現させるプログラム。
On the computer,
Storage means for storing each sound material and a plurality of types of feature data indicating the feature values of the sound material in association with each other;
An object, which is an image indicating a search condition for the feature amount of the sound material, is displayed on the display means, and the form of the object and the search condition for the feature quantity indicated by the object are changed in accordance with the operation of the operation means. And a control unit that searches the sound material stored in the storage unit for a sound material having a feature value close to the feature value indicated by the search condition.
JP2009093978A 2009-04-08 2009-04-08 Sound search apparatus and program Expired - Fee Related JP5532659B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009093978A JP5532659B2 (en) 2009-04-08 2009-04-08 Sound search apparatus and program
EP20100158620 EP2239727A1 (en) 2009-04-08 2010-03-31 Musical performance apparatus and program
US12/755,265 US9123318B2 (en) 2009-04-08 2010-04-06 Object based musical composition performance apparatus and program
CN2010101455650A CN101859559B (en) 2009-04-08 2010-04-08 Musical performance apparatus and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009093978A JP5532659B2 (en) 2009-04-08 2009-04-08 Sound search apparatus and program

Publications (2)

Publication Number Publication Date
JP2010243892A true JP2010243892A (en) 2010-10-28
JP5532659B2 JP5532659B2 (en) 2014-06-25

Family

ID=43096957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009093978A Expired - Fee Related JP5532659B2 (en) 2009-04-08 2009-04-08 Sound search apparatus and program

Country Status (1)

Country Link
JP (1) JP5532659B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054228A (en) * 2011-09-05 2013-03-21 Yamaha Corp Sound source controller and sound source control program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06175661A (en) * 1992-12-10 1994-06-24 Yamaha Corp Electronic musical instrument
JP2007071903A (en) * 2005-09-02 2007-03-22 Yamaha Corp Musical piece creation support device
JP2007121935A (en) * 2005-10-31 2007-05-17 Yamaha Corp Method and system for editing music material
JP2008164932A (en) * 2006-12-28 2008-07-17 Sony Corp Music editing device and method, and program
JP2008225200A (en) * 2007-03-14 2008-09-25 Yamaha Corp Music editing device and program
JP2009025402A (en) * 2007-07-17 2009-02-05 Yamaha Corp Music piece processing apparatus and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06175661A (en) * 1992-12-10 1994-06-24 Yamaha Corp Electronic musical instrument
JP2007071903A (en) * 2005-09-02 2007-03-22 Yamaha Corp Musical piece creation support device
JP2007121935A (en) * 2005-10-31 2007-05-17 Yamaha Corp Method and system for editing music material
JP2008164932A (en) * 2006-12-28 2008-07-17 Sony Corp Music editing device and method, and program
JP2008225200A (en) * 2007-03-14 2008-09-25 Yamaha Corp Music editing device and program
JP2009025402A (en) * 2007-07-17 2009-02-05 Yamaha Corp Music piece processing apparatus and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054228A (en) * 2011-09-05 2013-03-21 Yamaha Corp Sound source controller and sound source control program

Also Published As

Publication number Publication date
JP5532659B2 (en) 2014-06-25

Similar Documents

Publication Publication Date Title
US9123318B2 (en) Object based musical composition performance apparatus and program
JP5842545B2 (en) SOUND CONTROL DEVICE, SOUND CONTROL SYSTEM, PROGRAM, AND SOUND CONTROL METHOD
JP3686906B2 (en) Music game program and music game apparatus
US7514622B2 (en) Musical sound production apparatus and musical
JPWO2005093529A1 (en) Metronome for changing tempo
JP3728942B2 (en) Music and image generation device
JP5509948B2 (en) Performance apparatus and program
JP3770293B2 (en) Visual display method of performance state and recording medium recorded with visual display program of performance state
JP5532659B2 (en) Sound search apparatus and program
JP3603599B2 (en) Method for visual display of performance system and computer-readable recording medium on which visual display program for performance system is recorded
JP4366240B2 (en) Game device, pitched sound effect generating program and method
JP5589741B2 (en) Music editing apparatus and program
JP3719151B2 (en) Performance pattern processing apparatus, processing program recording medium, and data recording medium
JP4094120B2 (en) How to edit the lyrics data
JP5888295B2 (en) Performance information display device, program
JP2010271398A (en) Sound material retrieval device
JP6020134B2 (en) Performance data set editing program and apparatus
JP5399831B2 (en) Music game system, computer program thereof, and method of generating sound effect data
JP3972942B2 (en) Performance pattern processing apparatus and processing program recording medium
JP2006091804A (en) Automatic music player and program
JP4140154B2 (en) Performance information separation method and apparatus, and recording medium therefor
JP3953071B2 (en) Electronic musical instruments
JP2001013964A (en) Playing device and recording medium therefor
JP5867456B2 (en) Performance information display device, program.
JP3535360B2 (en) Sound generation method, sound generation device, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5532659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140414

LAPS Cancellation because of no payment of annual fees