JP2013007988A - Data processing device and program - Google Patents

Data processing device and program Download PDF

Info

Publication number
JP2013007988A
JP2013007988A JP2011242607A JP2011242607A JP2013007988A JP 2013007988 A JP2013007988 A JP 2013007988A JP 2011242607 A JP2011242607 A JP 2011242607A JP 2011242607 A JP2011242607 A JP 2011242607A JP 2013007988 A JP2013007988 A JP 2013007988A
Authority
JP
Japan
Prior art keywords
data
sound
waveform signal
unit
sound material
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011242607A
Other languages
Japanese (ja)
Other versions
JP6114492B2 (en
Inventor
Jun Usui
旬 臼井
Yasushi Kamiya
泰史 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2011242607A priority Critical patent/JP6114492B2/en
Publication of JP2013007988A publication Critical patent/JP2013007988A/en
Application granted granted Critical
Publication of JP6114492B2 publication Critical patent/JP6114492B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract sound materials having various features on the basis of one musical sound waveform signal.SOLUTION: A music sound processing device extracts a sound material from a musical sound waveform signal acquired by processing audio data output on the basis of one track and stores it in a database. Processing modes includes a mode of combining the audio data with other audio data, a mode of giving sound effect, etc.. With this sound processing device, as a musical sound waveform signal indicated by the audio data of extraction source can be changed by changing modes, various sound materials can be extracted.

Description

本発明は、楽音波形信号から音素材を抽出する技術に関する。   The present invention relates to a technique for extracting sound material from a musical sound waveform signal.

断片的な音素材をデータベースに記憶し、この音素材を組み合わせて楽音を発生させる技術がある。楽音を発生させるときに用いる音素材は、データベースに登録された多数の音素材から選択することになる。特許文献1には、このデータベースに登録する音素材を、楽曲の楽音波形信号から予め決められたアルゴリズムにしたがって抽出することが開示されている。   There is a technology for storing pieces of sound material in a database and generating musical sounds by combining these sound materials. The sound material used when generating a musical sound is selected from a large number of sound materials registered in the database. Patent Document 1 discloses that a sound material to be registered in this database is extracted from a musical sound waveform signal of music according to a predetermined algorithm.

特開2010−191337号公報JP 2010-191337 A

特許文献1に開示された技術によれば、楽曲の楽音波形信号から音素材を抽出し、その音素材の特徴に応じて分類することができるため、音素材のデータベースへの登録が容易になる。音素材のデータベースへの登録が用意になったことにより、より多くの様々な特徴をもつ音素材をデータベースに登録しようと考えることがある。この場合には、同じような音素材ばかりが登録されないように、様々な楽曲の楽音波形信号を用意する必要があった。   According to the technique disclosed in Patent Document 1, since sound material can be extracted from musical tone waveform signals of music and classified according to the characteristics of the sound material, it is easy to register the sound material in the database. . With the preparation of the sound material in the database, we may want to register more sound materials with various features in the database. In this case, it is necessary to prepare musical sound waveform signals of various musical pieces so that only similar sound materials are not registered.

本発明は、上述の事情に鑑みてなされたものであり、一の楽音波形信号に基づいて様々な特徴をもつ音素材を抽出することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to extract sound materials having various characteristics based on one musical sound waveform signal.

上述の課題を解決するため、本発明は、発音内容を示す発音データ、および当該発音内容を変化させるための加工データを取得して、当該発音データに対して当該加工データに基づく加工をする加工手段と、前記加工をされた発音データの発音内容を示す楽音波形信号を解析して、予め決められた特徴を有する楽音波形信号の期間を特定する特定手段と、前記特定された期間の楽音波形信号を解析して特徴量を算出する算出手段と、前記特定された期間の楽音波形信号を示す特定データと前記算出された特徴量を示す特徴量データとを出力するデータ出力手段とを具備することを特徴とするデータ処理装置を提供する。   In order to solve the above-described problems, the present invention acquires pronunciation data indicating the pronunciation content and processing data for changing the pronunciation content, and performs processing based on the processing data for the pronunciation data Means for analyzing a musical sound waveform signal indicating the sound content of the processed sound data, specifying a period of the musical sound waveform signal having a predetermined characteristic, and a musical sound waveform for the specified period A calculation unit that analyzes the signal to calculate a feature value; and a data output unit that outputs specific data indicating the tone waveform signal of the specified period and feature value data indicating the calculated feature value. A data processing apparatus is provided.

また、別の好ましい態様において、前記加工データは、前記楽音波形信号に付与する音響効果の内容を規定する設定データを含み、前記加工手段は、前記設定データに基づいて、前記取得した発音データに係る前記楽音波形信号に音響効果を付与するように前記加工をすることを特徴とする。   In another preferred embodiment, the processed data includes setting data that defines a content of an acoustic effect to be imparted to the musical sound waveform signal, and the processing means adds the acquired pronunciation data to the acquired pronunciation data based on the setting data. The processing is performed so as to give an acoustic effect to the musical sound waveform signal.

また、別の好ましい態様において、前記加工データは、発音内容を規定する発音データを含み、前記加工手段は、前記取得した発音データに係る楽音波形信号に対して、前記加工データに含まれる発音データに係る楽音波形信号を合成することにより前記加工をすることを特徴とする。   In another preferred embodiment, the processed data includes pronunciation data that defines the content of the pronunciation, and the processing means generates pronunciation data included in the processed data with respect to a musical sound waveform signal related to the acquired pronunciation data. The processing is performed by synthesizing the musical sound waveform signal according to the above.

また、別の好ましい態様において、前記特定データは、前記加工をされた発音データに係る楽音波形信号と当該楽音波形信号の前記特定された期間を示す時刻情報とにより、前記特定された期間の楽音波形信号を示し、前記特定手段が複数の期間を特定した場合には、前記特定データは、前記加工をされた発音データに係る楽音波形信号と当該楽音波形信号の前記特定された複数の期間を示す時刻情報とにより、前記特定された複数の期間の楽音波形信号を示し、前記算出手段は、前記特定された期間毎に前記特徴量を算出することを特徴とする。   In another preferred embodiment, the specific data is a musical tone of the specified period based on a musical sound waveform signal related to the processed sound generation data and time information indicating the specified period of the musical sound waveform signal. In the case where a waveform signal is shown and the specifying means specifies a plurality of periods, the specifying data includes a musical sound waveform signal related to the processed sound generation data and the specified plurality of periods of the musical sound waveform signal. The musical sound waveform signal of the plurality of specified periods is indicated by the time information shown, and the calculation means calculates the feature amount for each of the specified periods.

また、別の好ましい態様において、前記特定データは、前記特定された期間の楽音波形信号を抽出した楽音波形信号を示すことを特徴とする。   Moreover, in another preferable aspect, the specific data indicates a musical sound waveform signal obtained by extracting a musical sound waveform signal of the specified period.

また、本発明は、コンピュータを、発音内容を示す発音データ、および当該発音内容を変化させるための加工データを取得して、当該発音データに対して当該加工データに基づく加工をする加工手段と、前記加工をされた発音データの発音内容を示す楽音波形信号を解析して、予め決められた特徴を有する楽音波形信号の期間を特定する特定手段と、前記特定された期間の楽音波形信号を解析して特徴量を算出する算出手段と、前記特定された期間の楽音波形信号を示す特定データと前記算出された特徴量を示す特徴量データとを出力するデータ出力手段として機能させるためのプログラムを提供する。   Further, the present invention provides a computer with processing means for acquiring pronunciation data indicating the pronunciation content and processing data for changing the pronunciation content, and processing the pronunciation data based on the processing data; Analyzing the musical sound waveform signal indicating the sound content of the processed sound data, identifying means for identifying the period of the musical sound waveform signal having a predetermined characteristic, and analyzing the musical sound waveform signal of the specified period A program for functioning as a data output means for outputting a calculation means for calculating the feature quantity, and specific data indicating the musical sound waveform signal of the specified period and feature quantity data indicating the calculated feature quantity provide.

本発明によれば、一の楽音波形信号に基づいて様々な特徴をもつ音素材を抽出することができる。   According to the present invention, a sound material having various characteristics can be extracted based on one musical sound waveform signal.

本発明の実施形態における楽音処理装置の構成を説明するブロック図である。It is a block diagram explaining the structure of the musical tone processing apparatus in embodiment of this invention. 本発明の実施形態における音素材DBの例を説明する図である。It is a figure explaining the example of sound material DB in the embodiment of the present invention. 本発明の実施形態における特定データにより表される音素材の内容を説明する図である。It is a figure explaining the content of the sound material represented by the specific data in the embodiment of the present invention. 本発明の実施形態における音素材トラックの例を説明する図である。It is a figure explaining the example of the sound material track | truck in embodiment of this invention. 本発明の実施形態における再生機能の構成を説明するブロック図である。It is a block diagram explaining the structure of the reproduction | regeneration function in embodiment of this invention. 本発明の実施形態における音素材抽出機能および修正機能の構成を説明するブロック図である。It is a block diagram explaining the structure of the sound material extraction function and correction function in embodiment of this invention. 本発明の実施形態における再生プログラム実行中の表示の一例を説明する図である。It is a figure explaining an example of the display during the reproduction | regeneration program execution in embodiment of this invention. 本発明の実施形態における抽出プログラム実行中の表示の一例(分岐位置指定表示)を説明する図である。It is a figure explaining an example (branch position designation | designated display) during the extraction program execution in embodiment of this invention. 本発明の実施形態における抽出プログラム実行中の表示の一例(抽出完了表示)を説明する図である。It is a figure explaining an example (extraction completion display) of the display during extraction program execution in the embodiment of the present invention. 本発明の実施形態における修正プログラム実行中の表示の一例を説明する図である。It is a figure explaining an example of the display during execution of the correction program in embodiment of this invention. 本発明の変形例5における音素材タイミングデータの例を説明する図である。It is a figure explaining the example of the sound material timing data in the modification 5 of this invention. 本発明の変形例6における音素材トラックの例を説明する図である。It is a figure explaining the example of the sound material track | truck in the modification 6 of this invention. 本発明の変形例6における音素材トラックの別の例を説明する図である。It is a figure explaining another example of the sound material track in modification 6 of the present invention. 本発明の変形例7における発音制御システムの構成を説明するブロック図である。It is a block diagram explaining the structure of the sound generation control system in the modification 7 of this invention. 本発明の変形例7におけるサーバ装置の構成を説明する図である。It is a figure explaining the structure of the server apparatus in the modification 7 of this invention. 本発明の変形例7における音素材トラックの例を説明する図である。It is a figure explaining the example of the sound material track | truck in the modification 7 of this invention. 本発明の変形例7における楽音処理装置およびサーバ装置の機能を説明する機能ブロック図である。It is a functional block diagram explaining the function of the musical tone processing apparatus and server apparatus in the modification 7 of this invention. 本発明の変形例7における音素材トラック作成プログラム実行時の表示画面の表示例を説明する図である。It is a figure explaining the example of a display of the display screen at the time of the sound material track creation program execution in the modification 7 of this invention. 本発明の変形例7における音素材トラック作成プログラム実行時の発音制御システムの動作を説明する図である。It is a figure explaining operation | movement of the sound generation control system at the time of the sound material track creation program execution in the modification 7 of this invention. 本発明の変形例8における音素材トラック作成プログラム実行時の表示画面の表示例を説明する図である。It is a figure explaining the example of a display of the display screen at the time of the sound material track creation program execution in the modification 8 of this invention. 本発明の変形例17における音素材トラック作成プログラム実行時の表示画面の表示例を説明する図である。It is a figure explaining the example of a display of the display screen at the time of the sound material track creation program execution in the modification 17 of this invention. 本発明の変形例18における音素材トラック作成プログラムム実行時の表示画面の表示例を説明する図である。It is a figure explaining the example of a display of a display screen at the time of sound material track creation program execution in modification 18 of the present invention.

<実施形態>
[概要]
本発明の実施形態における楽音処理装置は、パーソナルコンピュータ、携帯電話、PDA(Personal Digital Assistant)、タブレット端末などの情報処理装置であり、OS(Operating System)上で特定のアプリケーションプログラムを実行することにより、DAW(Digital Audio Workstation)と呼ばれる機能が実現される装置である。この楽音処理装置において実現されるDAWにおいては、楽音波形信号の一部として抽出される音素材を用いて楽音を発生させるための制御を行う機能も実現される。また、楽音波形信号から音素材を抽出する機能など、以下に説明する各機能も実現される。DAWを実現するアプリケーションプログラムの実行中においてサブルーチンのプログラムが実行されることにより、これらの各機能が実現される。
<Embodiment>
[Overview]
The musical tone processing apparatus according to the embodiment of the present invention is an information processing apparatus such as a personal computer, a mobile phone, a PDA (Personal Digital Assistant), and a tablet terminal, and executes a specific application program on an OS (Operating System). , A device that realizes a function called DAW (Digital Audio Workstation). In the DAW realized in this musical tone processing apparatus, a function of performing control for generating musical tone using a sound material extracted as a part of a musical tone waveform signal is also realized. Moreover, each function demonstrated below, such as the function to extract a sound material from a musical sound waveform signal, is also realized. Each of these functions is realized by executing a subroutine program during the execution of the application program for realizing the DAW.

[楽音処理装置10の構成]
図1は、本発明の実施形態における楽音処理装置10の構成を説明するブロック図である。楽音処理装置10は、制御部11、操作部12、表示部13、インターフェイス14、記憶部15、および音響処理部16を有する。これらの各構成はバスを介して接続されている。また、楽音処理装置10は、音響処理部16に接続されたスピーカ161およびマイクロフォン162を有する。
[Configuration of Music Processing Device 10]
FIG. 1 is a block diagram illustrating the configuration of a musical tone processing apparatus 10 according to an embodiment of the present invention. The musical sound processing apparatus 10 includes a control unit 11, an operation unit 12, a display unit 13, an interface 14, a storage unit 15, and an acoustic processing unit 16. Each of these components is connected via a bus. In addition, the musical sound processing apparatus 10 includes a speaker 161 and a microphone 162 connected to the sound processing unit 16.

制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)などを有する。制御部11は、ROMまたは記憶部15に記憶された各種プログラムを実行することにより、各種機能を実現する。この例においては、制御部11によるプログラムの実行には、DAWを実現するアプリケーションプログラムの実行、上述のサブルーチンのプログラムの実行が含まれる。サブルーチンのプログラムとしては、記憶部15に記憶された再生プログラム、抽出プログラム、および修正プログラムが含まれる。   The control unit 11 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. The control unit 11 implements various functions by executing various programs stored in the ROM or the storage unit 15. In this example, execution of the program by the control unit 11 includes execution of an application program that realizes DAW and execution of the above-described subroutine program. The subroutine program includes a reproduction program, an extraction program, and a correction program stored in the storage unit 15.

再生プログラムは、DAWにおいて楽音の発音内容を規定するシーケンスデータを再生し、楽音を発音させる処理を行う再生機能を実現するためのプログラムである。抽出プログラムは、再生機能により合成される楽音波形信号から音素材を抽出する音素材抽出機能を実現するためのプログラムである。修正プログラムは、抽出された音素材のデータに修正を加える修正機能を実現するためのプログラムである。これらの機能の詳細については、後述する各機能の構成の説明において述べる。   The reproduction program is a program for realizing a reproduction function that reproduces sequence data that defines the sound content of a musical sound in the DAW, and performs a process of generating the musical sound. The extraction program is a program for realizing a sound material extraction function for extracting a sound material from a musical sound waveform signal synthesized by a reproduction function. The correction program is a program for realizing a correction function for correcting the extracted sound material data. Details of these functions will be described in the description of the configuration of each function described later.

操作部12はユーザによる操作を受け付ける操作ボタン、キーボード、マウス、タッチパネルなどの操作手段を有し、それぞれに受け付けられた操作の内容を示す操作データを制御部11に出力する。これにより、ユーザからの指示が楽音処理装置10に入力される。
表示部13は、液晶ディスプレイなどの表示デバイスであり、制御部11の制御に応じた内容の表示を表示画面131に行う。表示画面131に表示される内容は、メニュー画面、設定画面などの他、実行されたプログラムによって様々な内容となる(図7、図8、図9、図10参照)。
The operation unit 12 has operation means such as an operation button that accepts an operation by a user, a keyboard, a mouse, and a touch panel, and outputs operation data indicating the contents of the accepted operation to the control unit 11. Thereby, an instruction from the user is input to the musical sound processing apparatus 10.
The display unit 13 is a display device such as a liquid crystal display, and displays content on the display screen 131 according to the control of the control unit 11. The contents displayed on the display screen 131 are various contents depending on the executed program in addition to the menu screen, the setting screen, and the like (see FIGS. 7, 8, 9, and 10).

インターフェイス14は、外部装置と接続して有線または無線により通信し、各種データの送受信をする機能を有する。また、インターフェイス14には、外部装置からオーディオデータが入力されるAUX(Auxiliary)端子も設けられている。インターフェイス14は、外部装置から入力された各種データを制御部11に出力する一方、制御部11からの制御により、外部装置へ各種データを出力する。なお、AUX端子にアナログ信号が入力される場合には、A/D変換(アナログデジタル変換)が施される。   The interface 14 has a function of transmitting and receiving various data by connecting to an external device and communicating by wire or wireless. The interface 14 is also provided with an AUX (Auxiliary) terminal to which audio data is input from an external device. The interface 14 outputs various data input from the external device to the control unit 11, and outputs various data to the external device under the control of the control unit 11. When an analog signal is input to the AUX terminal, A / D conversion (analog / digital conversion) is performed.

マイクロフォン162は、入力された音の内容を示す楽音波形信号を音響処理部16に出力する。
音響処理部16は、DSP(Digital Signal Processor)などの信号処理回路などを有する。この例においては、音響処理部16は、マイクロフォン162から入力される楽音波形信号をA/D変換し、オーディオデータとして制御部11に出力する。また、音響処理部16は、制御部11から出力されたオーディオデータを、制御部11によって設定された音響処理、D/A変換(デジタルアナログ変換)処理、増幅処理などの信号処理などを施して、楽音波形信号としてスピーカ161に出力する。
スピーカ161は、音響処理部16から入力された楽音波形信号が示す音を出力する。
The microphone 162 outputs a musical sound waveform signal indicating the content of the input sound to the acoustic processing unit 16.
The acoustic processing unit 16 includes a signal processing circuit such as a DSP (Digital Signal Processor). In this example, the acoustic processing unit 16 performs A / D conversion on the musical sound waveform signal input from the microphone 162 and outputs it as audio data to the control unit 11. The acoustic processing unit 16 performs signal processing such as acoustic processing, D / A conversion (digital / analog conversion) processing, amplification processing, and the like set on the audio data output from the control unit 11. And output to the speaker 161 as a musical sound waveform signal.
The speaker 161 outputs the sound indicated by the musical sound waveform signal input from the acoustic processing unit 16.

記憶部15は、ハードディスク、フラッシュメモリなどの不揮発性メモリであって、上記の各種プログラムを記憶する記憶領域を有する。また、記憶部15は、各種プログラムが実行されているときに用いられるシーケンスデータ、音素材データベース(以下、音素材DBと記す)、波形データベース(以下、波形DBと記す)をそれぞれ記憶する記憶領域を有する。   The storage unit 15 is a non-volatile memory such as a hard disk or a flash memory, and has a storage area for storing the various programs. The storage unit 15 also stores storage areas for storing sequence data, a sound material database (hereinafter referred to as a sound material DB), and a waveform database (hereinafter referred to as a waveform DB) used when various programs are executed. Have

波形DBは、楽音波形信号を示す波形データW1、W2、・・・が登録されている。これらの波形データが示す楽音波形信号は、楽曲、特定の楽器音、音素材など様々な内容のいずれかであり、その長さについても1秒未満から数分以上まで様々である。また、ループして用いられるものも存在してもよい。ループして用いられる波形データであっても、その一部の区間を用いてループしない波形データとして用いてもよい。なお、この例における波形データについては、複数チャンネル(例えばLch、Rch)のデータが含まれている。以下の説明においては、楽音波形信号を示す波形データ、オーディオデータなどの各データは、Lch、Rchの2chにより構成されているものとするが、より多くのチャンネル数で構成されていてもよいし、モノラル(1ch)で構成されていてもよい。   In the waveform DB, waveform data W1, W2,... Indicating musical tone waveform signals are registered. The musical sound waveform signals indicated by these waveform data are any of various contents such as music, specific instrument sounds, sound materials, etc., and their lengths vary from less than one second to several minutes or more. There may also be one used in a loop. Even waveform data used in a loop may be used as waveform data that does not loop using a part of the section. Note that the waveform data in this example includes data of a plurality of channels (for example, Lch and Rch). In the following description, each data such as waveform data indicating a musical sound waveform signal and audio data is composed of two channels of Lch and Rch, but may be composed of a larger number of channels. , May be composed of monaural (1ch).

図2は、本発明の実施形態における音素材DBの例を説明する図である。音素材DBは、音素材の内容を特定する情報が登録されている。図2に示すように、音素材の内容を特定する情報は、音素材の楽音波形信号の内容を特定する特定データ、音素材の楽音波形信号の特徴を示す特徴量データ、この楽音波形信号の特徴により分類されるカテゴリを含む。   FIG. 2 is a diagram illustrating an example of the sound material DB in the embodiment of the present invention. In the sound material DB, information for specifying the contents of the sound material is registered. As shown in FIG. 2, the information for specifying the content of the sound material includes specific data for specifying the content of the sound waveform signal of the sound material, feature data indicating the characteristics of the sound waveform signal of the sound material, Includes categories categorized by features.

特定データは、波形DBに登録された波形データのいずれかを指定する波形指定情報と、その波形データにおけるデータ範囲を時刻で指定する時刻指定情報との組み合わせにより構成されている。この例においては、時刻指定情報によって指定される時刻は、波形データのデータ先頭からの時刻として決められている。ここで、波形指定情報が示す波形データがループして用いられるものである場合には、データ範囲における開始位置の時刻が、終了位置の時刻より後の時刻として示されていてもよい。この場合には、音素材の内容は、開始位置からデータ最後までの区間の楽音波形信号に続いて、データ先頭から終了位置までの区間の楽音波形信号を接続したものとなる。特定データによって特定される音素材については、それぞれを特定するための識別子(この例においては、sn1、sn2、・・・)が付されている。以下、特定の音素材を示す場合には、音素材sn1というように記す。
なお、特定データのうち時刻指定情報が規定されていないものについては、波形指定情報が示す波形データそのものが音素材の楽音の内容を表している。例えば、音素材sn4が示す楽音ついては、波形データW5が示す楽音波形信号全体で表される。
The specific data is composed of a combination of waveform designation information for designating one of the waveform data registered in the waveform DB and time designation information for designating a data range in the waveform data by time. In this example, the time designated by the time designation information is determined as the time from the beginning of the waveform data. Here, when the waveform data indicated by the waveform designation information is used in a loop, the time at the start position in the data range may be indicated as a time after the time at the end position. In this case, the content of the sound material is obtained by connecting the musical sound waveform signal of the section from the start position to the end position after the musical sound waveform signal of the section from the start position to the end of the data. About the sound material specified by specific data, the identifier (in this example, sn1, sn2, ...) for specifying each is attached | subjected. Hereinafter, when a specific sound material is indicated, it is referred to as a sound material sn1.
For specific data for which time designation information is not defined, the waveform data itself indicated by the waveform designation information represents the content of the musical sound of the sound material. For example, the musical sound indicated by the sound material sn4 is represented by the entire musical sound waveform signal indicated by the waveform data W5.

図3は、本発明の実施形態における特定データにより表される音素材の内容を説明する図である。図3(a)は、音素材sn1、sn2、sn3が示す楽音の楽音波形信号を説明する図であり、図3(b)は、音素材sn4が示す楽音の楽音波形信号を説明する図である。図2に示すように、音素材sn1の内容は、波形指定情報が波形データW1であり、時刻指定情報がts1〜te1として特定されている。したがって、音素材sn1に対応する楽音波形信号は、図3(a)に示すように、波形データW1が示す楽音波形信号のうち、時刻ts1〜te1の楽音波形信号となる。同様に、音素材sn2、sn3にそれぞれ対応する楽音波形信号についても、波形データW1が示す楽音波形信号の一部の範囲として特定される。一方、図3(b)に示すように、音素材sn4が示す楽音波形信号については、時刻指定情報が規定されていないため、波形データW5が示す楽音波形信号全体として特定される。以下、音素材sn1、sn2、・・・が示す楽音波形信号を表すデータを、音素材データsn1、sn2、・・・として記す。   FIG. 3 is a diagram for explaining the contents of the sound material represented by the specific data in the embodiment of the present invention. FIG. 3A is a diagram for explaining musical tone waveform signals of musical sounds indicated by the sound materials sn1, sn2, and sn3, and FIG. 3B is a diagram for explaining musical tone waveform signals of musical sounds indicated by the sound material sn4. is there. As shown in FIG. 2, the content of the sound material sn <b> 1 is specified such that the waveform designation information is the waveform data W <b> 1 and the time designation information is ts <b> 1 to te <b> 1. Therefore, as shown in FIG. 3A, the musical sound waveform signal corresponding to the sound material sn1 is a musical sound waveform signal at times ts1 to te1 among the musical sound waveform signals indicated by the waveform data W1. Similarly, the musical sound waveform signals respectively corresponding to the sound materials sn2 and sn3 are specified as a partial range of the musical sound waveform signal indicated by the waveform data W1. On the other hand, as shown in FIG. 3B, the musical sound waveform signal indicated by the sound material sn4 is specified as the whole musical sound waveform signal indicated by the waveform data W5 because the time designation information is not defined. Hereinafter, data representing musical sound waveform signals indicated by the sound materials sn1, sn2,... Are described as sound material data sn1, sn2,.

図2に戻って説明を続ける。特徴量データは、各音素材の楽音波形信号がもつ複数種類の特徴量p1、p2、・・・を示す。例えば、音素材について、周波数別(高域、中域、低域)のそれぞれの強度、振幅のピークとなる時刻(音素材データの先頭を基準とした時刻)、振幅のピーク強度、協和度、複雑さなどについての特徴量であり、音素材データを解析して得られた値である。例えば、特徴量p1は、その値により音素材の高域の強度を示す。以下、特徴量データは、その特徴量p1、p2、・・・のそれぞれの値の組み合わせによってPa、Pb、・・・というように示す。例えば、音素材sn3については、特徴量データは各特徴量の組み合わせから決められたPcとして示す。   Returning to FIG. 2, the description will be continued. The feature amount data indicates a plurality of types of feature amounts p1, p2,... Possessed by the tone waveform signal of each sound material. For example, for sound material, the intensity of each frequency (high range, mid range, low range), time of peak amplitude (time relative to the beginning of the sound material data), peak amplitude of amplitude, degree of cooperation, It is a feature quantity for complexity and the like, and is a value obtained by analyzing sound material data. For example, the feature quantity p1 indicates the intensity of the high frequency range of the sound material by its value. Hereinafter, the feature amount data is indicated as Pa, Pb,... By a combination of values of the feature amounts p1, p2,. For example, for the sound material sn3, the feature amount data is indicated as Pc determined from the combination of the feature amounts.

音素材の特徴、すなわち特徴量データの内容により分類されるカテゴリは、聴感上の特徴が似た音素材毎に分類されたものであり、例えば、アタックが明瞭でエッジ感が強い音として分類されるカテゴリ「分類A(例えば、エッジ音)」、ノイズのように聞こえる音として分類されるカテゴリ「分類B(例えば、テクスチャ音)」などである。
この特徴量、カテゴリについては、例えば、ユーザが、後述する音素材トラックにおいて用いられる音素材を決めるときに、所望の音素材を音素材DBから検索するときに用いられる。例えば、ユーザが特徴量データを入力することにより、制御部11が特徴量データに類似する音素材を検索し、ユーザに提示したり、ユーザがカテゴリを選択することにより、制御部11は、そのカテゴリに分類された音素材をユーザに提示したりすればよい。また、ユーザが特定の音素材を指定した場合に、制御部11が、その音素材に特徴量データが類似する音素材を検索し、ユーザに提示するようにしてもよい。
The categories classified by the characteristics of the sound material, that is, the content of the feature data, are classified for each sound material having similar auditory characteristics. For example, the sound is classified as a sound with a clear attack and a strong edge. Category “classification A (for example, edge sound)”, category “classification B (for example, texture sound)” classified as sound that sounds like noise, and the like.
The feature amount and category are used, for example, when a user searches a sound material DB for a desired sound material when determining a sound material to be used in a sound material track described later. For example, when the user inputs feature amount data, the control unit 11 searches for sound material similar to the feature amount data and presents it to the user, or when the user selects a category, the control unit 11 What is necessary is just to show a user the sound material classified into the category. Further, when the user designates a specific sound material, the control unit 11 may search for a sound material having feature data similar to that sound material and present it to the user.

シーケンスデータは、時系列に発音内容を規定する複数のトラックを有している。各トラックは、この例においては、オーディオトラック、MIDI(Musical Instrument Digital Interface)トラック、音素材トラックのうち、いずれかの種類のトラックが割り当てられている。この各トラックは、本発明の発音データの一態様である。   The sequence data has a plurality of tracks that define pronunciation contents in time series. In this example, each type of track is assigned to any one of an audio track, a MIDI (Musical Instrument Digital Interface) track, and a sound material track. Each of these tracks is an aspect of the pronunciation data of the present invention.

MIDIトラックは、ノートオン、ノートオフ、ノートナンバ、ベロシティなどのMIDIイベントと、これらのイベントの処理タイミング(例えば、トラックのデータ開始からの小節数、拍数、ティック数などにより表される)との関係を規定するトラックである。このように、MIDIトラックは、この例においては、一般的に用いられるMIDI形式で規定されているものとするが、イベントに応じた発音内容の楽音波形信号を生成する音源などを制御するための情報が規定されたトラックであれば、他の形式によって規定されていてもよい。   MIDI tracks are MIDI events such as note-on, note-off, note number, and velocity, and the processing timing of these events (for example, expressed by the number of bars, beats, ticks, etc. from the start of the track data) It is a track that defines the relationship. As described above, in this example, the MIDI track is defined in a commonly used MIDI format. However, the MIDI track is used to control a sound source that generates a musical sound waveform signal having a pronunciation content corresponding to an event. As long as the information track is defined, it may be defined in another format.

オーディオトラックは、オーディオデータとそのデータの再生開始タイミングが規定されたトラックである。オーディオデータとしては、波形DBに記憶された波形データであってもよいし、別途入力された楽音波形信号を示すデータであってもよい。また、再生開始タイミングは、上記の処理タイミングと同様に、トラックのデータ開始からの小節数、拍数、ティック数により表される。なお、オーディオデータの再生音量を示す情報など他の情報が含まれていてもよい。   The audio track is a track in which audio data and playback start timing of the data are defined. The audio data may be waveform data stored in the waveform DB, or may be data indicating a musical sound waveform signal input separately. The reproduction start timing is represented by the number of bars, the number of beats, and the number of ticks from the start of the track data, similarly to the above processing timing. Other information such as information indicating the playback volume of the audio data may be included.

図4は、本発明の実施形態における音素材トラックの例を説明する図である。図4に示すように、音素材トラックは、音素材データとそのデータの再生開始タイミングが規定されたトラックである。音素材データは、音素材DBにおいて各音素材の識別子により特定される。また、再生開始タイミングは、上記の処理タイミングと同様に、トラックのデータ開始からの小節数、拍数、ティック数により表される。この例においては、音素材データを再生するときの音量、時間(この例においてはティック数で表される)についても規定されているが、音量、時間については規定されていなくてもよい。
規定される時間は、音素材データのデータ先頭からの時間(規定される時間より短い音素材データについてはループ再生してもよい)として決められたものであってもよいし、タイムストレッチ処理によりこの時間に伸縮するように決められたものであってもよい。時間が規定されていない場合には、音素材データをデータ開始から最後まで再生するようにすればよい。
図4の例に示す場合には、例えば、再生開始タイミング「0002:01:000」(第2小節第1拍に対応)においては、対応する音素材データSn3を再生するように決められている。
FIG. 4 is a diagram illustrating an example of a sound material track in the embodiment of the present invention. As shown in FIG. 4, the sound material track is a track in which the sound material data and the reproduction start timing of the data are defined. The sound material data is specified by the identifier of each sound material in the sound material DB. The reproduction start timing is represented by the number of bars, the number of beats, and the number of ticks from the start of the track data, similarly to the above processing timing. In this example, the volume and time (represented by the number of ticks in this example) when reproducing the sound material data are also defined, but the volume and time may not be defined.
The specified time may be determined as the time from the beginning of the sound material data (the sound material data shorter than the specified time may be loop-played), or by time stretch processing It may be determined to expand and contract at this time. If the time is not specified, the sound material data may be reproduced from the start to the end of the data.
In the example shown in FIG. 4, for example, at the reproduction start timing “0002: 01: 000” (corresponding to the first beat of the second measure), it is determined to reproduce the corresponding sound material data Sn3. .

図1に戻って説明を続ける。シーケンスデータは、上記トラックの他、各トラックの再生速度を指定するテンポ(1拍の時間を示す値)、各トラックに対して施す音響処理の内容、各トラックから得られる楽音波形信号の合成態様、楽音波形信号を合成した後の音響処理などの各信号処理の内容を規定する設定データを有している。楽音波形信号の合成態様としては、各トラックに基づく楽音波形信号が合成(ミキシング)されて音響処理部16に出力されるまでの、各楽音波形信号の信号経路の態様、楽音波形信号を合成するときの信号レベルの割合(トラック間、チャンネル間(Lch,Rch))などである。
このシーケンスデータにおける各トラックの内容、設定データの内容は、ユーザによって作成されてもよいし、インターフェイス14を介して取得するようにしてもよい。
以上が、楽音処理装置10のハードウエア構成についての説明である。
Returning to FIG. 1, the description will be continued. In addition to the above tracks, the sequence data includes a tempo (a value indicating the time of one beat) that specifies the playback speed of each track, the contents of the acoustic processing applied to each track, and a synthesis mode of musical sound waveform signals obtained from each track And setting data for defining the contents of each signal processing such as acoustic processing after the musical sound waveform signal is synthesized. As a synthesis form of the musical sound waveform signals, a musical sound waveform signal based on each track until a musical sound waveform signal based on each track is synthesized (mixed) and output to the acoustic processing unit 16 is synthesized. Signal level ratio (between tracks, between channels (Lch, Rch)).
The contents of each track and the contents of the setting data in the sequence data may be created by the user or may be acquired via the interface 14.
The above is the description of the hardware configuration of the musical tone processing apparatus 10.

[再生機能構成]
次に、楽音処理装置10の制御部11が再生プログラムを実行することによって実現される再生機能について説明する。なお、以下に説明する再生機能を実現する各構成の一部または全部については、ハードウエアによって実現してもよい。
[Playback function configuration]
Next, a reproduction function realized by the control unit 11 of the musical sound processing apparatus 10 executing a reproduction program will be described. Note that some or all of the components for realizing the playback function described below may be realized by hardware.

図5は、本発明の実施形態における再生機能の構成を説明するブロック図である。制御部11が再生プログラムを実行すると、データ読出部110−1、110−2、・・・(以下、それぞれを区別しない場合には、データ読出部110という)、音源部120、音素材データ合成部130、音響効果付与部140−1、140−2、・・・(以下、それぞれを区別しない場合には、音響効果付与部140という)、オーディオデータ合成部150、合成音響効果付与部160、チャンネル変換部170、およびバス部180を有する再生機能部100が構成され、再生機能が実現される。   FIG. 5 is a block diagram illustrating the configuration of the playback function in the embodiment of the present invention. When the control unit 11 executes the reproduction program, the data reading units 110-1, 110-2,... (Hereinafter referred to as the data reading unit 110 if not distinguished from each other), the sound source unit 120, and sound material data synthesis. Unit 130, acoustic effect applying units 140-1, 140-2 (hereinafter referred to as acoustic effect applying unit 140 when not distinguished from each other), audio data synthesizing unit 150, synthetic acoustic effect applying unit 160, The playback function unit 100 including the channel conversion unit 170 and the bus unit 180 is configured to realize the playback function.

データ読出部110−1は、設定データにより規定されたテンポ、およびオーディオトラックに規定されたタイミングにより決まる再生開始タイミングからオーディオデータを読み出して、音響効果付与部140−1に出力する。オーディオデータの各部(例えばサンプル単位)を読み出す速度についてもテンポに応じて変化させてもよい。この場合には、タイムストレッチ処理によりオーディオデータの示す楽音波形信号のピッチが変わらないようにする。音響効果付与部140−1は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。   The data reading unit 110-1 reads audio data from the reproduction start timing determined by the tempo specified by the setting data and the timing specified by the audio track, and outputs the audio data to the sound effect applying unit 140-1. The speed at which each part (for example, sample unit) of audio data is read may be changed according to the tempo. In this case, the pitch of the musical sound waveform signal indicated by the audio data is not changed by the time stretch process. The audio effect applying unit 140-1 performs signal processing on the musical sound waveform signal indicated by the input audio data so as to apply the sound effect having the content defined by the setting data, and the audio data subjected to the signal processing. Are output to the audio data synthesis unit 150.

オーディオトラックからオーディオデータ合成部150に至る信号ラインには、データ読出部110−1によって読み出されて出力されたオーディオデータを取り出すための信号ラインである分岐S1、音響効果付与部140−1によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S5が設けられている。
なお、オーディオトラックは、1つのトラックにつき、データ読出部110−1および音響効果付与部140−1の組を有している。したがって、オーディオトラックが複数存在する場合には、データ読出部110−1および音響効果付与部140−1の組がオーディオトラックの数だけ設けられる。分岐S1、S5についてもトラック毎に設けられる。
The signal line from the audio track to the audio data synthesis unit 150 is branched by the branch S1, which is a signal line for extracting the audio data read and output by the data reading unit 110-1, and the sound effect applying unit 140-1. A branch S5 is provided for extracting audio data indicating a musical sound waveform signal to which a sound effect has been applied.
Note that the audio track has a set of a data reading unit 110-1 and a sound effect applying unit 140-1 for each track. Therefore, when there are a plurality of audio tracks, a set of the data reading unit 110-1 and the sound effect applying unit 140-1 is provided by the number of audio tracks. The branches S1 and S5 are also provided for each track.

データ読出部110−2は、設定データにより規定されたテンポ、およびMIDIトラックに規定されたタイミングにより決まる処理タイミングでイベントを読み出して音源部120に出力する。音源部120は、入力されるMIDIイベントに応じた発音内容の楽音波形信号を示すオーディオデータを生成するソフトウエア音源である。音源部120は、データ読出部110−2から入力されたMIDIイベントに応じて生成したオーディオデータを音響効果付与部140−2に出力する。なお、音源部120は、外部装置として設けられていてもよく、この場合には、データ読出部110−2は、インターフェイス14を介して外部装置にMIDIイベントを出力し、音響効果付与部140−2は、外部装置において生成されたオーディオデータを、インターフェイス14を介して取得してもよい。   The data reading unit 110-2 reads the event at a processing timing determined by the tempo specified by the setting data and the timing specified by the MIDI track, and outputs the event to the sound source unit 120. The sound source unit 120 is a software sound source that generates audio data indicating a musical sound waveform signal having a pronunciation content corresponding to an input MIDI event. The sound source unit 120 outputs the audio data generated according to the MIDI event input from the data reading unit 110-2 to the acoustic effect applying unit 140-2. The sound source unit 120 may be provided as an external device. In this case, the data reading unit 110-2 outputs a MIDI event to the external device via the interface 14, and the sound effect applying unit 140- 2 may acquire the audio data generated in the external device via the interface 14.

音響効果付与部140−2は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。   The audio effect applying unit 140-2 performs signal processing on the musical sound waveform signal indicated by the input audio data so as to give the sound effect having the content defined by the setting data, and the audio data subjected to the signal processing. Are output to the audio data synthesis unit 150.

MIDIトラックからオーディオデータ合成部150に至る信号ラインには、音源部120から出力されたオーディオデータを取り出すための信号ラインである分岐S2、音響効果付与部140−2によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S6が設けられている。
なお、MIDIトラックは、1つのトラックにつき、データ読出部110−2、音源部120および音響効果付与部140−2の組を有している。したがって、MIDIトラックが複数存在する場合には、データ読出部110−2、音源部120および音響効果付与部140−2の組がMIDIトラックの数だけ設けられる。分岐S2、S6についてもトラック毎に設けられる。なお、音源部120は、トラック毎に入力を受け付けて、トラック毎にオーディオデータを出力する構成であれば、複数存在しなくてもよい。
The signal line from the MIDI track to the audio data synthesizing unit 150 has a branch S2, which is a signal line for extracting the audio data output from the sound source unit 120, and the musical sound to which the acoustic effect is imparted by the acoustic effect imparting unit 140-2. A branch S6 is provided for extracting audio data indicating the waveform signal.
The MIDI track has a set of a data reading unit 110-2, a sound source unit 120, and a sound effect applying unit 140-2 for each track. Therefore, when there are a plurality of MIDI tracks, a set of the data reading unit 110-2, the sound source unit 120, and the sound effect applying unit 140-2 is provided by the number of MIDI tracks. Branches S2 and S6 are also provided for each track. It should be noted that the sound source unit 120 does not need to exist in plural as long as it is configured to receive input for each track and output audio data for each track.

データ読出部110−3は、設定データにより規定されたテンポ、および音素材トラックに規定されたタイミングにより決まる再生開始タイミングで、対応する音素材データを読み出して音素材データ合成部130に出力する。音素材データ合成部130は、データ読出部110−3から入力される音素材データが示す楽音波形信号を、入力されたタイミングに応じて時系列に合成して、オーディオデータとして音響効果付与部140−3に出力する。   The data reading unit 110-3 reads out the corresponding sound material data at the reproduction start timing determined by the tempo specified by the setting data and the timing specified by the sound material track, and outputs it to the sound material data synthesizing unit 130. The sound material data synthesizing unit 130 synthesizes the musical sound waveform signal indicated by the sound material data input from the data reading unit 110-3 in time series according to the input timing, and the sound effect applying unit 140 as audio data. To -3.

ここで、2つの音素材データが順に入力されるとき、先の音素材データの再生途中において後の音素材データが入力される場合には、先の音素材データが示す楽音波形信号の最後の部分と、後の音素材データが示す楽音波形信号の最初の部分が、同期間に重複する場合がある。このような期間においては、それぞれの楽音波形信号を合成した内容を示すオーディオデータが音素材データ合成部130から出力されることになる。
音響効果付与部140−3は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。
Here, when two pieces of sound material data are input in order, if the subsequent sound material data is input during the reproduction of the previous sound material data, the last sound waveform signal indicated by the previous sound material data is input. There are cases where the portion and the first portion of the musical sound waveform signal indicated by the subsequent sound material data overlap during the same period. In such a period, audio data indicating the synthesized contents of the respective musical sound waveform signals is output from the sound material data synthesis unit 130.
The sound effect applying unit 140-3 performs signal processing on the musical sound waveform signal indicated by the input audio data so as to give the sound effect having the content defined by the setting data, and the audio data subjected to the signal processing. Are output to the audio data synthesis unit 150.

音素材トラックからオーディオデータ合成部150に至る信号ラインには、音素材データ合成部130から出力されたオーディオデータを取り出すための信号ラインである分岐S3、音響効果付与部140−3によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S7が設けられている。
なお、音素材トラックは、1つのトラックにつき、データ読出部110−3、音素材データ合成部130および音響効果付与部140−3の組を有している。したがって、音素材トラックが複数存在する場合には、データ読出部110−3、音素材データ合成部130および音響効果付与部140−3の組が音素材トラックの数だけ設けられる。分岐S3、S6についてもトラック毎に設けられる。
The signal line from the sound material track to the audio data synthesizing unit 150 has an acoustic effect by the branch S3, which is a signal line for extracting the audio data output from the sound material data synthesizing unit 130, and the acoustic effect applying unit 140-3. A branch S7 is provided for extracting audio data indicating the assigned musical sound waveform signal.
Note that the sound material track has a set of a data reading unit 110-3, a sound material data synthesizing unit 130, and an acoustic effect applying unit 140-3 for each track. Therefore, when there are a plurality of sound material tracks, a set of the data reading unit 110-3, the sound material data synthesizing unit 130, and the sound effect applying unit 140-3 is provided by the number of sound material tracks. Branches S3 and S6 are also provided for each track.

インターフェイス14のAUX端子に入力されたオーディオデータは、音響効果付与部140−4に出力される。このオーディオデータは、時系列にAUX端子から入力されるものであるため、上記のデータ読出部に相当する構成については存在しない。音響効果付与部140−4は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。   The audio data input to the AUX terminal of the interface 14 is output to the sound effect applying unit 140-4. Since the audio data is input from the AUX terminal in time series, there is no configuration corresponding to the data reading unit. The audio effect applying unit 140-4 performs signal processing on the musical sound waveform signal indicated by the input audio data so as to give the sound effect having the content defined by the setting data, and the audio data subjected to the signal processing. Are output to the audio data synthesis unit 150.

AUX端子からオーディオデータ合成部150に至る信号ラインには、AUX端子に入力されたオーディオデータを取り出すための信号ラインである分岐S4、音響効果付与部140−4によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S8が設けられている。
なお、インターフェイス14に複数のAUX端子がある場合には、音響効果付与部140−4が、各AUX端子に対応して設けられる。分岐S4についてもトラック毎に設けられる。
In the signal line from the AUX terminal to the audio data synthesizing unit 150, the musical sound waveform to which the acoustic effect is given by the branch S4 which is a signal line for extracting the audio data inputted to the AUX terminal and the acoustic effect giving unit 140-4 A branch S8 is provided for extracting audio data indicating the signal.
In addition, when there are a plurality of AUX terminals in the interface 14, the sound effect imparting unit 140-4 is provided corresponding to each AUX terminal. The branch S4 is also provided for each track.

バス部180は、音響効果付与部140−1、140−2、140−3、140−4に入力されるオーディオデータ(B1、B2、B3、B4において分岐)を取り出して、合成して音響効果付与部140−5に出力する。合成するときの各オーディオデータの信号レベルについては、設定データに基づいて決められる。音響効果付与部140−5は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。
バス部180からオーディオデータ合成部150に至る信号ラインには、バス部180から出力されたオーディオデータを取り出すための信号ラインである分岐S14、音響効果付与部140−5によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S15が設けられている。
The bus unit 180 takes out the audio data (branched at B1, B2, B3, and B4) input to the sound effect applying units 140-1, 140-2, 140-3, and 140-4, synthesizes them, and generates a sound effect. It outputs to the grant part 140-5. The signal level of each audio data at the time of synthesis is determined based on the setting data. The sound effect applying unit 140-5 performs signal processing on the musical sound waveform signal indicated by the input audio data so as to give the sound effect having the content defined by the setting data, and the audio data subjected to the signal processing. Are output to the audio data synthesis unit 150.
The signal line from the bus unit 180 to the audio data synthesis unit 150 is given a sound effect by the branch S14, which is a signal line for extracting the audio data output from the bus unit 180, and the sound effect applying unit 140-5. A branch S15 is provided for extracting audio data indicating the musical sound waveform signal.

ここで、音響効果付与部140に入力されるオーディオデータが、本発明の発音データの一態様である。また、音響効果付与部140が、本発明の加工手段の一態様であり、付与する音響効果の内容を規定する設定データが、加工データの一態様である。すなわち、音響効果付与部140は、設定データに基づいてオーディオデータを加工する構成である。   Here, the audio data input to the acoustic effect imparting unit 140 is an aspect of the pronunciation data of the present invention. Moreover, the acoustic effect provision part 140 is an aspect of the processing means of this invention, and the setting data which prescribes | regulates the content of the acoustic effect to provide is an aspect of processing data. That is, the acoustic effect imparting unit 140 is configured to process audio data based on the setting data.

オーディオデータ合成部150は、入力された各オーディオデータを、設定データの内容に基づいて合成して出力する。具体的には、オーディオデータ合成部150は、各オーディオデータが示す楽音波形信号について、トラック間(AUX端子、バス部180からの出力も含む)の信号レベルの比、同一トラックのチャンネル間(Lch、Rch)の信号レベルの比を調整して、チャンネル毎に合成する。そして、オーディオデータ合成部150は、合成した楽音波形信号を示すオーディオデータを、合成音響効果付与部160に出力する。なお、図5においては、分岐S1〜S8、S14、S15については、LchおよびRchをまとめた信号ラインとして記載していたが、以下に説明する分岐S9〜S12については、信号ラインをLchとRchとに分けて図示している。
ここで、オーディオデータ合成部150は、本発明の加工手段の一態様であり、合成前のいずれかのオーディオデータが発音データの一態様であり、他のオーディオデータが加工データの一態様である。すなわち、オーディオデータ合成部150は、いずれかのオーディオデータを他のオーディオデータに基づいて加工する構成である。また、合成態様(加工態様)については、上述したように設定データに基づいて決められている。なお、バス部180についてもオーディオデータ合成部150と同様に、本発明の加工手段の一態様となりうる。
The audio data synthesis unit 150 synthesizes the input audio data based on the contents of the setting data and outputs the synthesized data. Specifically, the audio data synthesizing unit 150 determines the ratio of signal levels between tracks (including the output from the AUX terminal and the bus unit 180), and between channels of the same track (Lch) for the sound waveform signal indicated by each audio data. , Rch) signal level ratios are adjusted and synthesized for each channel. Then, the audio data synthesis unit 150 outputs audio data indicating the synthesized musical sound waveform signal to the synthesized sound effect applying unit 160. In FIG. 5, the branches S1 to S8, S14, and S15 are described as signal lines in which Lch and Rch are combined. They are shown separately.
Here, the audio data synthesizing unit 150 is an aspect of the processing means of the present invention, and any audio data before synthesis is an aspect of the pronunciation data, and other audio data is an aspect of the processed data. . That is, the audio data synthesis unit 150 is configured to process any audio data based on other audio data. Further, the synthesis mode (processing mode) is determined based on the setting data as described above. Note that the bus unit 180 can also be an aspect of the processing means of the present invention, similarly to the audio data synthesis unit 150.

合成音響効果付与部160は、入力されたオーディオデータに対して、設定データにより規定された内容の音響効果を付与するように信号処理を施して、チャンネル変換部170に出力する。チャンネル変換部170は、設定データにより規定されたチャンネル数に変換して音響処理部16に出力する。この例においては、Lch、Rchの楽音波形信号を合成してモノラル化したオーディオデータが出力される場合を図5に示しているが、合成せずにそのまま出力されるようにしてもよいし、よりチャンネル数を増やす処理が施されて出力されるようにしてもよい。このようにチャンネル変換部170は、設定データに基づいて、マトリクス処理などを用いてチャンネル数を増減させる機能を有するものであればよい。
ここで、合成音響効果付与部160およびチャンネル変換部170が、各々本発明の加工手段の一態様であり、付与する音響効果の内容、チャンネル数を規定する設定データが、加工データの一態様である。
The synthesized sound effect applying unit 160 performs signal processing on the input audio data so as to give the sound effect having the content defined by the setting data, and outputs the processed audio data to the channel converting unit 170. The channel conversion unit 170 converts the number of channels specified by the setting data and outputs it to the sound processing unit 16. In this example, FIG. 5 shows a case where audio data obtained by synthesizing Lch and Rch musical sound waveform signals is output to monaural, but it may be output without being synthesized. A process for increasing the number of channels may be performed and output. As described above, the channel conversion unit 170 only needs to have a function of increasing or decreasing the number of channels using matrix processing or the like based on the setting data.
Here, each of the synthesized sound effect applying unit 160 and the channel converting unit 170 is an aspect of the processing means of the present invention, and the setting data defining the content of the acoustic effect to be applied and the number of channels is an aspect of the processed data. is there.

オーディオデータ合成部150から音響処理部16に至る信号ラインには、オーディオデータ合成部150から出力されるオーディオデータのLchを取り出すための信号ラインである分岐S9、Rchを取り出すための信号ラインS10が設けられ、合成音響効果付与部160によって音響効果が付与されたオーディオデータのLchを取り出すための信号ラインである分岐S11、Rchを取り出すための信号ラインS12が設けられ、チャンネル変換部170によってモノラル化したオーディオデータを取り出すための信号ラインである分岐S13が設けられている。
以上が、再生機能についての説明である。
The signal line from the audio data synthesis unit 150 to the sound processing unit 16 includes a branch S9 that is a signal line for extracting the Lch of the audio data output from the audio data synthesis unit 150, and a signal line S10 for extracting the Rch. A signal line S12 for extracting the Rch and the branch S11 that is provided and a signal line for extracting the Lch of the audio data to which the sound effect is applied by the synthesized sound effect applying unit 160 are provided. A branch S13 which is a signal line for taking out the audio data is provided.
This completes the description of the playback function.

[音素材抽出機能および修正機能]
次に、楽音処理装置10の制御部11が抽出プログラムを実行することによって実現される音素材抽出機能について説明する。また、制御部11が修正プログラムを実行することによって実現される修正機能についても併せて説明する。なお、以下に説明する音素材抽出機能および修正機能を実現する各構成の一部または全部については、ハードウエアによって実現してもよい。
[Sound material extraction function and correction function]
Next, the sound material extraction function realized by the control unit 11 of the musical sound processing apparatus 10 executing the extraction program will be described. A correction function realized by the control unit 11 executing the correction program will also be described. In addition, you may implement | achieve part or all of each structure which implement | achieves the sound material extraction function and correction function demonstrated below by hardware.

図6は、本発明の実施形態における音素材抽出機能および修正機能の構成を説明するブロック図である。制御部11が抽出プログラムを実行すると、選択部210、抽出部220およびデータ出力部230を有する音素材抽出機能部200が構成され、音素材抽出機能が実現される。また、制御部11が修正プログラムを実行すると、修正部300が構成され、修正機能が実現される。   FIG. 6 is a block diagram illustrating the configuration of the sound material extraction function and the correction function in the embodiment of the present invention. When the control unit 11 executes the extraction program, the sound material extraction function unit 200 including the selection unit 210, the extraction unit 220, and the data output unit 230 is configured, and the sound material extraction function is realized. Further, when the control unit 11 executes the correction program, the correction unit 300 is configured and a correction function is realized.

選択部210は、分岐S1、S2、・・・S15のいずれかを選択し、選択した分岐の信号ラインにおけるオーディオデータを取得して抽出部220に出力する。いずれを選択するかについては、ユーザによっていずれかが選択されてもよいし、予め決められていてもよい。また、いずれか1つの分岐を選択するのではなく、複数の分岐を選択してもよい。その場合には、選択部210は、チャンネル毎に楽音波形信号を合成して出力すればよい。また、分岐S9、S10の組み合わせ、または分岐S11、S12の組み合わせについては、Lch、Rchの関係であるから、一体として選択されるようにしてもよい。一方、分岐S9のみの選択など、一方のチャンネルについてのみのオーディオデータが選択された場合には、選択部210は、出力するオーディオデータについて、他方のチャンネルについては無音としてもよいし、双方のチャンネルともに同じ楽音波形信号としてもよいし、モノラル化してもよい。なお、分岐S1、S2、・・・、S8、S14、S15については、LchおよびRchをまとめた信号ラインとして説明したが、選択部210は、これらの分岐から取得したオーディオデータを抽出部220に出力するときには、いずれか一方のチャンネルのみのオーディオデータとしてもよいし、モノラル化したオーディオデータとしてもよい。どのような態様でオーディオデータを出力するかについては、設定データに基づいて決められればよい。   The selection unit 210 selects one of the branches S1, S2,... S15, acquires audio data in the signal line of the selected branch, and outputs the audio data to the extraction unit 220. Which one to select may be selected by the user or may be determined in advance. Further, instead of selecting any one branch, a plurality of branches may be selected. In that case, the selection unit 210 may synthesize and output a musical sound waveform signal for each channel. Further, the combination of the branches S9 and S10 or the combination of the branches S11 and S12 has a relationship of Lch and Rch, and may be selected as a unit. On the other hand, when the audio data for only one channel is selected, such as selecting only the branch S9, the selection unit 210 may be silent for the other channel of the output audio data, or both channels may be silenced. Both may be the same musical sound waveform signal or may be monaural. Note that the branches S1, S2,..., S8, S14, and S15 have been described as signal lines in which Lch and Rch are combined, but the selection unit 210 sends the audio data acquired from these branches to the extraction unit 220. When outputting, audio data of only one of the channels may be used, or monaural audio data may be used. What kind of aspect the audio data is output may be determined based on the setting data.

抽出部220は、音素材特定部221および特徴量算出部222を有し、音素材特定部221および特徴量算出部222の処理により、入力されたオーディオデータから音素材を抽出して、その音素材の特徴量を算出する。そして、抽出部220は、オーディオデータが示す楽音波形信号のうち、抽出した音素材に対応する区間を示す情報と、算出した特徴量を示す特徴量データとをデータ出力部230に出力する。このとき、抽出に用いたオーディオデータ(抽出部200に入力されたオーディオデータ)についても出力する。
以下、音素材特定部221および特徴量算出部222の機能について説明する。
The extraction unit 220 includes a sound material specifying unit 221 and a feature amount calculation unit 222, and extracts sound material from the input audio data by the processing of the sound material specification unit 221 and the feature amount calculation unit 222. The feature amount of the material is calculated. Then, the extraction unit 220 outputs, to the data output unit 230, information indicating a section corresponding to the extracted sound material and feature amount data indicating the calculated feature amount in the musical sound waveform signal indicated by the audio data. At this time, the audio data used for extraction (audio data input to the extraction unit 200) is also output.
Hereinafter, functions of the sound material specifying unit 221 and the feature amount calculating unit 222 will be described.

特徴量算出部222は、抽出部220に入力されたオーディオデータが示す楽音波形信号(以下、抽出元楽音波形信号という)のうち、音素材特定部221に指示された区間における特徴量を算出して、算出結果を音素材特定部221に出力する。   The feature amount calculation unit 222 calculates a feature amount in a section instructed by the sound material identification unit 221 among the musical sound waveform signals indicated by the audio data input to the extraction unit 220 (hereinafter, referred to as extraction source musical sound waveform signals). The calculation result is output to the sound material specifying unit 221.

音素材特定部221は、抽出元楽音波形信号から、音量変化が一定以上の変化をするオンセットを検出し、オンセットから予め決められた時間の範囲のうち、様々な区間を特徴量算出部222に指示し特徴量を算出させる。音素材特定部221は、算出された各区間の特徴量のうち、予め決められた特定の条件を満たす特徴量の区間を、オーディオデータから抽出した音素材に対応する抽出元楽音波形信号における区間として特定する。音素材特定部221は、入力されたオーディオデータ全体から、音素材の抽出を行って、音素材に対応する抽出元楽音波形信号における区間を特定していく。なお、このようにオーディオデータから音素材を抽出する方法については公知の方法のいずれも用いること可能であるが、例えば、特開2010−191337号公報に開示された方法を用いればよい。   The sound material specifying unit 221 detects an onset in which the volume change changes more than a certain level from the extracted source musical sound waveform signal, and features various sections in a predetermined time range from the onset. Instructed to 222, the feature amount is calculated. The sound material specifying unit 221 selects a section having a feature amount satisfying a predetermined specific condition from among the calculated feature amounts of each section, in the extracted source musical sound waveform signal corresponding to the sound material extracted from the audio data. As specified. The sound material specifying unit 221 extracts sound material from the entire input audio data, and specifies a section in the extraction source musical sound waveform signal corresponding to the sound material. As a method for extracting sound material from audio data as described above, any known method can be used. For example, a method disclosed in Japanese Patent Application Laid-Open No. 2010-191337 may be used.

そして、音素材特定部221は、抽出した音素材毎に、それぞれ特定した区間(以下、特定区間という)を示す情報と、この区間に対応して算出された特徴量を示す特徴量データとを出力し、入力されたオーディオデータについても出力する。   Then, the sound material specifying unit 221 includes, for each extracted sound material, information indicating a specified section (hereinafter referred to as a specific section) and feature amount data indicating a feature amount calculated corresponding to this section. Output audio data that has been input.

データ出力部230は、抽出部220から入力されたオーディオデータを記憶部15に出力し、波形データとして波形DBに登録する。また、データ出力部230は、登録した波形データを識別する波形指定情報と、特定区間をデータ範囲とした時刻指定情報とを示す特定データ、および特徴量データを記憶部15に出力し、抽出した音素材毎に音素材DBに登録する。このとき、データ出力部230は、登録した特徴量データに応じて分類されるカテゴリについても決定する。   The data output unit 230 outputs the audio data input from the extraction unit 220 to the storage unit 15 and registers it as waveform data in the waveform DB. Further, the data output unit 230 outputs the waveform specification information for identifying the registered waveform data, the specific data indicating the time specification information with the specific section as the data range, and the feature amount data to the storage unit 15 for extraction. Each sound material is registered in the sound material DB. At this time, the data output unit 230 also determines a category classified according to the registered feature data.

また、データ出力部230は、波形DBに登録する場合には、抽出部220から入力されたオーディオデータのうち、特定区間の楽音波形信号を切り出したオーディオデータを、波形データとして波形DBに登録する場合もある。この場合には、データ出力部230が音素材DBに登録する特定データには時刻指定情報が含まれない。すなわち、特定データは、波形データ全体を音素材として特定することで、音素材の楽音波形信号を示していることになる。   In addition, when registering in the waveform DB, the data output unit 230 registers, as waveform data, audio data obtained by cutting out a musical sound waveform signal in a specific section from the audio data input from the extraction unit 220 as waveform data. In some cases. In this case, the specific data registered in the sound material DB by the data output unit 230 does not include time designation information. That is, the specific data indicates the musical sound waveform signal of the sound material by specifying the entire waveform data as the sound material.

データ出力部230による上記2種類の波形DBの登録方法のいずれを適用するかについては、ユーザが予め設定すればよい。この例においては、前者の登録方法(特定区間の楽音波形信号を切り出さない場合)は「mode1」、後者の登録方法(特定区間の楽音波形信号を切り出す場合)は「mode2」として設定される。なお、この登録方法については、データ出力部230が予め決められたアルゴリズムにしたがって設定してもよい。例えば、抽出部220において抽出された音素材の数が予め決められた数以上である場合には、「mode1」として設定され、当該数未満であれば、「mode2」として設定されればよい。   The user may set in advance which of the two types of waveform DB registration methods by the data output unit 230 is applied. In this example, the former registration method (when a musical sound waveform signal in a specific section is not cut out) is set as “mode 1”, and the latter registration method (when a musical sound waveform signal in a specific section is cut out) is set as “mode 2”. The registration method may be set by the data output unit 230 according to a predetermined algorithm. For example, when the number of sound materials extracted by the extraction unit 220 is equal to or greater than a predetermined number, it is set as “mode1”, and when it is less than the number, it may be set as “mode2”.

修正部300は、データ出力部230による波形DBおよび音素材DBへの登録前における音素材のデータ範囲(時刻指定情報)について、ユーザの指示に応じて修正する機能を有する。これにより抽出部220により抽出された音素材を、ユーザの要求に沿った音素材になるように調整することができる。このとき、特徴量データの内容を変更しなくてもよいし、特徴量データの内容を修正後の音素材から特徴量算出部222によって再算出させて更新してもよい。
なお、修正部300は、既に登録されている音素材のデータ範囲を修正するようにしてもよい。
以上が、音素材抽出機能および修正機能についての説明である。上記各機能構成により、楽音処理装置10において、本発明のデータ処理装置が実現される。
The correction unit 300 has a function of correcting the data range (time designation information) of the sound material before registration in the waveform DB and the sound material DB by the data output unit 230 according to a user instruction. As a result, the sound material extracted by the extraction unit 220 can be adjusted to be a sound material that meets the user's request. At this time, the content of the feature data may not be changed, or the content of the feature data may be recalculated by the feature data calculator 222 from the corrected sound material and updated.
Note that the correction unit 300 may correct the data range of the already registered sound material.
This completes the description of the sound material extraction function and the correction function. With the above functional configurations, the data processing apparatus of the present invention is realized in the musical sound processing apparatus 10.

[各機能の動作例]
続いて、上述した再生プログラム、抽出プログラムおよび修正プログラムが実行されたときの動作例について、表示画面131の表示例を参照しながら説明する。
まず、ユーザは、DAW上においてシーケンスデータの再生を行う場合に、再生プログラムの実行の指示を、楽音処理装置10に対して入力し、再生させるシーケンスデータの指示についても入力する。このようにすると、表示画面131には、図7に示す内容の表示がなされる。
[Operation example of each function]
Next, an operation example when the above-described reproduction program, extraction program, and correction program are executed will be described with reference to a display example on the display screen 131.
First, when the sequence data is reproduced on the DAW, the user inputs an instruction to execute the reproduction program to the musical sound processing apparatus 10 and also inputs the instruction of the sequence data to be reproduced. In this way, the display screen 131 displays the content shown in FIG.

図7は、本発明の実施形態における再生プログラム実行中の表示の一例を説明する図である。表示画面131には、大きく分けてシーケンスデータの内容を示すデータ領域TA、およびユーザの指示を、ポインタptを用いて楽音処理装置10に入力するための操作画像領域BAが表示される。   FIG. 7 is a diagram for explaining an example of display during execution of the reproduction program in the embodiment of the present invention. On the display screen 131, a data area TA indicating the contents of the sequence data and an operation image area BA for inputting a user instruction to the musical sound processing apparatus 10 using the pointer pt are displayed.

データ領域TAには、シーケンスデータの各トラックの内容を模式的に示した画像が表示され、縦軸方向にトラック、横軸方向に時刻が規定される。データ領域TAに表示される内容はシーケンスデータの一部分であって、ユーザは、縦軸用スクロールバーVBAにおける縦軸タブvsbを操作して縦軸方向の表示範囲を変更し、横軸用スクロールバーHBAにおける横軸タブhsbなどを操作して横軸方向の表示範囲を変更する。この例のシーケンスデータにおいて、トラックはtr1、tr2、・・・tr6と6トラックで構成されているものとする。ここでは、tr1、tr2がオーディオトラック(図における「audio」)、tr3、tr4がMIDIトラック(図における「midi」)、tr5、tr6が音素材トラック(図における「ms」)であるものとする。このトラック数、トラックの種類は、ユーザにより自由に設定可能である。
また、横軸方向のデータ範囲を指定するための範囲指定矢印(開始指定矢印asおよび終了指定矢印ae)が表示され、これらの矢印を移動させることにより、横軸における開始時刻tssおよび終了時刻tseを設定する。
In the data area TA, an image schematically showing the contents of each track of the sequence data is displayed, and the track is defined in the vertical axis direction and the time is defined in the horizontal axis direction. The content displayed in the data area TA is a part of sequence data. The user operates the vertical axis tab vsb in the vertical axis scroll bar VBA to change the display range in the vertical axis direction, and the horizontal axis scroll bar. The display range in the horizontal axis direction is changed by operating the horizontal axis tab hsb in the HBA. In the sequence data of this example, it is assumed that the track is composed of tr1, tr2,... Tr6 and 6 tracks. Here, tr1 and tr2 are audio tracks (“audio” in the figure), tr3 and tr4 are MIDI tracks (“midi” in the figure), and tr5 and tr6 are sound material tracks (“ms” in the figure). . The number of tracks and the type of tracks can be freely set by the user.
Further, range designation arrows (start designation arrow as and end designation arrow ae) for designating the data range in the horizontal axis direction are displayed, and by moving these arrows, the start time tss and end time tse on the horizontal axis are displayed. Set.

また、表示画面131には、再生のテンポを設定するためのテンポ制御ボタンb1、再生開始、停止、早送り、巻き戻しを指定する再生制御ボタンb2、範囲指定矢印において指定されたデータ範囲のシーケンスデータから音素材に変換する処理を開始するための変換ボタンb3、および、抽出プログラム実行時の設定を行うための設定ボタンb4が表示される。
ユーザが再生制御ボタンb2を操作して、再生の開始を指示すると、再生機能部100におけるデータ読出部110において、設定されたテンポに基づいて、各データの読み出しが開始される。これにより、再生機能部100から音響処理部16に対してオーディオデータが出力され、シーケンスデータに基づく発音内容でスピーカ161から出力される。
ユーザが設定ボタンb4を操作すると、抽出プログラムが実行され、表示画面131には、図8に示す表示がなされる。この表示は、変換において、音素材を抽出するオーディオデータを設定するための内容になっている。
The display screen 131 also includes a tempo control button b1 for setting the tempo of reproduction, a reproduction control button b2 for specifying reproduction start, stop, fast forward, and rewind, and sequence data in the data range designated by the range designation arrow. A conversion button b3 for starting the process of converting from sound to sound material and a setting button b4 for performing settings at the time of executing the extraction program are displayed.
When the user operates the playback control button b2 to instruct the start of playback, the data reading unit 110 in the playback function unit 100 starts reading each data based on the set tempo. As a result, audio data is output from the playback function unit 100 to the sound processing unit 16, and is output from the speaker 161 with the sound production content based on the sequence data.
When the user operates the setting button b4, the extraction program is executed, and the display shown in FIG. This display has contents for setting audio data from which sound material is extracted in the conversion.

図8は、本発明の実施形態における抽出プログラム実行中の表示の一例(分岐位置指定表示)を説明する図である。図8に示すように、表示画面131においては、再生機能部100における各構成および信号ラインに対応した表示がなされる。トラック表示tmは、音響効果付与部140にオーディオデータを出力する構成に対応する部分をトラック毎に示している。バス表示bmは、バス部180に対応した部分を示している。音響効果付与表示etmは、音響効果付与部140に対応した部分をトラック毎に示している。合成部表示mmは、オーディオデータ合成部150に対応した部分を示している。合成音響効果付与表示emmは、合成音響効果付与部160に対応した部分を示している。mono表示cmは、チャンネル変換部170に対応した部分を示している。   FIG. 8 is a diagram illustrating an example of display during execution of the extraction program (branch position designation display) in the embodiment of the present invention. As shown in FIG. 8, on the display screen 131, display corresponding to each configuration and signal line in the playback function unit 100 is performed. The track display tm indicates a portion corresponding to a configuration for outputting audio data to the sound effect applying unit 140 for each track. A bus display bm indicates a portion corresponding to the bus unit 180. The acoustic effect imparting display etm indicates a portion corresponding to the acoustic effect imparting unit 140 for each track. The synthesis unit display mm indicates a part corresponding to the audio data synthesis unit 150. The synthetic sound effect application display emm indicates a part corresponding to the synthetic sound effect application unit 160. Mono display cm indicates a part corresponding to the channel conversion unit 170.

また、各構成の表示に対応する間の線は信号ラインに対応し、線に設けられた丸印である分岐表示bt1、bt2、・・・bt5は、分岐S1、S2、・・・S15に対応する。なお、この例において、オーディオトラックがtr1、tr2の2つのトラックから構成されているため、分岐S1、S5は、それぞれのトラックに対応して設けられている。MIDIトラック、音素材トラックについても同様である。ユーザの操作により分岐表示の部分を選択すると、表示が白丸から黒丸に変更され、その部分の信号ラインにおけるオーディオデータが音素材の抽出対象として設定される。図5に示す例においては、分岐S13に対応する部分の信号ラインにおけるオーディオデータが、音素材の抽出対象として設定された場合を示している。なお、ユーザは複数の分岐表示を選択してもよい。   Further, the lines corresponding to the display of each configuration correspond to the signal lines, and the branch indications bt1, bt2,... Bt5, which are circle marks provided on the lines, are changed to the branches S1, S2,. Correspond. In this example, since the audio track is composed of two tracks tr1 and tr2, the branches S1 and S5 are provided corresponding to the respective tracks. The same applies to the MIDI track and the sound material track. When a branch display portion is selected by a user operation, the display is changed from a white circle to a black circle, and the audio data in the signal line of that portion is set as an extraction target of the sound material. In the example shown in FIG. 5, the audio data in the signal line corresponding to the branch S13 is set as a sound material extraction target. Note that the user may select a plurality of branch displays.

また、表示画面131には、データ出力部230におけるデータベースの登録態様を設定するためのモード選択ボタンbmについても表示される。ユーザは「mode1」または「mode2」の一方を選択することにより、データ出力部230における登録態様が設定される。この例においては、「mode1」が設定されている状態を示している。
ユーザが決定ボタンb5を操作すると、これらの設定を終了し、表示画面131の表示は、図7に示す表示に戻る。
The display screen 131 also displays a mode selection button bm for setting a database registration mode in the data output unit 230. The user selects one of “mode1” or “mode2”, whereby the registration mode in the data output unit 230 is set. In this example, “mode 1” is set.
When the user operates the enter button b5, these settings are terminated, and the display on the display screen 131 returns to the display shown in FIG.

続いて、ユーザは、範囲指定矢印を操作して、抽出対象となるオーディオデータの期間を設定する。全範囲とする場合には範囲の設定は不要である。
上記設定が終了し、ユーザが変換ボタンb3を操作すると、ユーザにより設定された内容にしたがって、音素材抽出機能部200における処理が開始される。この例においては、音素材抽出機能部200において、再生機能部100に対して、範囲指定矢印により指定された期間のオーディオデータのうち、分岐S13の信号ラインにおけるオーディオデータを生成させ、選択部210で受け取る。そして、抽出部220において音素材を抽出する。抽出が終了すると、表示画面131には、図9に示すように、抽出完了表示がなされる。
Subsequently, the user operates the range designation arrow to set the period of audio data to be extracted. Setting the range is not necessary for the entire range.
When the above setting is completed and the user operates the conversion button b3, processing in the sound material extraction function unit 200 is started according to the content set by the user. In this example, the sound material extraction function unit 200 causes the playback function unit 100 to generate audio data in the signal line of the branch S13 among the audio data in the period designated by the range designation arrow, and the selection unit 210 Receive at. Then, the sound material is extracted in the extraction unit 220. When the extraction is completed, extraction completion is displayed on the display screen 131 as shown in FIG.

なお、選択部210においてオーディオデータを受け取るときには、再生機能部100において、そのオーディオデータを生成すればよいから、必ずしも音響処理部16に対してオーディオデータの出力はされなくてもよい。また、AUX端子からオーディオデータの入力がある場合(入力の有無はユーザによって予め設定されればよい)には、再生機能部100において、範囲指定矢印により指定された期間のオーディオデータを音響処理部16に出力し、その期間にAUX端子から入力されたオーディオデータがオーディオデータ合成部150において合成されるようにすればよい。   Note that when the selection unit 210 receives the audio data, the playback function unit 100 only has to generate the audio data. Therefore, the audio data is not necessarily output to the acoustic processing unit 16. Also, when audio data is input from the AUX terminal (the presence or absence of input may be set in advance by the user), the playback function unit 100 receives audio data for a period specified by a range specifying arrow as an acoustic processing unit. 16 and the audio data input from the AUX terminal during that period may be combined by the audio data combining unit 150.

図9は、本発明の実施形態における抽出プログラム実行中の表示の一例(抽出完了表示)を説明する図である。図9に示すように、表示画面131には、選択部210で受け取ったオーディオデータが示す抽出元楽音波形信号wv、抽出した音素材の期間(特定区間)を示す表示(この図における音素材sna、snb、snc、snd)、各音素材に対応した特徴量データから分類されるカテゴリを示す表示(この図におけるアイコンica、icb、icc、icd)が表示される。また、特定区間を修正するための修正ボタンb6、抽出した音素材をデータベースに登録するための登録ボタンb7についても、表示画面131に表示される。   FIG. 9 is a diagram for explaining an example of the display during extraction program execution (extraction completion display) in the embodiment of the present invention. As shown in FIG. 9, the display screen 131 displays the source musical sound waveform signal wv indicated by the audio data received by the selection unit 210 and the period (specific interval) of the extracted sound material (the sound material sna in this figure). , Snb, snc, snd) and a display (icons ica, icb, icc, icd in this figure) showing categories classified from the feature amount data corresponding to each sound material. Further, a correction button b6 for correcting the specific section and a registration button b7 for registering the extracted sound material in the database are also displayed on the display screen 131.

ユーザは、音素材に対応する部分(例えばアイコンica、icb、icc、icd)を、ポインタptを用いて操作すると、対応する音素材の楽音波形信号が示す音が、制御部11の制御によってスピーカ161から出力されるようになっている。
ユーザがスピーカ161から出力された音を試聴して、音素材の特定区間について修正する必要がない場合など、ユーザによって登録ボタンb7が操作されると、データ出力部230は、選択部210が受け取ったオーディオデータを波形DBに登録する一方、抽出した音素材毎に特定データおよび特徴量データを音素材DBに登録する。
一方、ユーザが音素材の特定区間について修正したいと考えた場合など、ユーザによって修正ボタンb6が操作された場合には、修正プログラムが実行され、表示画面131には、図10に示す表示がなされる。
When the user operates a portion corresponding to the sound material (for example, icons ica, icb, icc, icd) using the pointer pt, the sound indicated by the musical sound waveform signal of the corresponding sound material is controlled by the control unit 11 through the speaker. 161 is output.
When the user operates the registration button b7 when the user listens to the sound output from the speaker 161 and there is no need to correct a specific section of the sound material, the data output unit 230 receives the data output unit 230. While the audio data is registered in the waveform DB, the specific data and the feature data are registered in the sound material DB for each extracted sound material.
On the other hand, when the user operates the correction button b6, such as when the user wants to correct a specific section of the sound material, the correction program is executed, and the display screen 131 displays the display shown in FIG. The

図10は、本発明の実施形態における修正プログラム実行中の表示の一例を説明する図である。図10に示すように、表示画面131には、最後に試聴した音素材の部分が拡大表示される。この例においては、最後に試聴した音素材は、音素材snbであったものとする。また、音素材に対応する楽音波形信号の期間(特定区間)を調整するための範囲指定矢印(開始指定矢印asおよび終了指定矢印ae)が表示される。
その他、範囲指定矢印によって指定された期間の楽音波形信号が示す音を試聴するための試聴ボタンb8、範囲指定矢印によって指定された期間の楽音波形信号を音素材に対応する楽音波形信号として確定させる確定ボタンb9が表示画面131に表示される。
FIG. 10 is a diagram for explaining an example of display during execution of the correction program in the embodiment of the present invention. As shown in FIG. 10, the portion of the sound material that was last auditioned is displayed on the display screen 131 in an enlarged manner. In this example, it is assumed that the last sound material to be auditioned is the sound material snb. In addition, range designation arrows (start designation arrow as and end designation arrow ae) for adjusting the period (specific section) of the musical sound waveform signal corresponding to the sound material are displayed.
In addition, the audition button b8 for auditioning the sound indicated by the musical sound waveform signal in the period designated by the range designation arrow, and the musical sound waveform signal in the period designated by the range designation arrow are determined as the musical sound waveform signal corresponding to the sound material. A confirmation button b9 is displayed on the display screen 131.

ユーザは、範囲指定矢印を操作して楽音波形信号の期間を調整し、試聴ボタンb8を操作して試聴する行為を繰り返すことにより、所望の音素材になるように楽音波形信号の期間を指定する。図10においては、開始時刻tsb、終了時刻tebとして規定される期間の楽音波形信号に対応する音素材snb1が指定されたものとする。そして、ユーザは、確定ボタンb9を操作すると、抽出された音素材snbが、ユーザによって指定された音素材snb1に修正される。   The user operates the range designation arrow to adjust the period of the musical sound waveform signal, and repeats the trial listening operation by operating the audition button b8, thereby designating the period of the musical sound waveform signal so that the desired sound material is obtained. . In FIG. 10, it is assumed that the sound material snb1 corresponding to the musical sound waveform signal in the period defined as the start time tsb and the end time teb is specified. When the user operates the confirm button b9, the extracted sound material snb is corrected to the sound material snb1 designated by the user.

そして、上述したとおり、ユーザによって登録ボタンb7が操作されると、選択部210が受け取ったオーディオデータを波形DBに登録する一方、抽出した音素材毎に特定データおよび特徴量データを音素材DBに登録する。このとき、修正された音素材については、修正後の音素材に対応する特定データが音素材DBに登録される。特徴量データについては、修正前に算出された特徴量を示すものであってもよいし、修正後の音素材が示す楽音波形信号について特徴量算出部222が再計算した特徴量を示すものであってもよい。いずれにするかは、ユーザの指示に応じて決定されればよい。
このようにして音素材に対応する楽音波形信号の開始時刻をずらすことにより、音の立ち上がり感を調整したり、終了時刻をずらすことにより残響感を調整したりすることができる。
以上が、再生プログラム、抽出プログラム、修正プログラムが実行されたときの動作例の説明である。
As described above, when the registration button b7 is operated by the user, the audio data received by the selection unit 210 is registered in the waveform DB, while the specific data and the feature amount data are extracted in the sound material DB for each extracted sound material. sign up. At this time, for the modified sound material, specific data corresponding to the modified sound material is registered in the sound material DB. The feature amount data may indicate the feature amount calculated before correction, or may indicate the feature amount re-calculated by the feature amount calculation unit 222 for the musical sound waveform signal indicated by the corrected sound material. There may be. Which one is to be determined may be determined according to a user instruction.
In this way, it is possible to adjust the feeling of rising sound by shifting the start time of the musical sound waveform signal corresponding to the sound material, or to adjust the feeling of reverberation by shifting the end time.
The above is the description of the operation example when the reproduction program, the extraction program, and the correction program are executed.

このように、本発明の実施形態における楽音処理装置10は、一のトラックに基づいて出力されるオーディオデータが示す楽音波形信号から音素材を抽出するだけでなく、このオーディオデータを加工して得られる楽音波形信号から音素材を抽出する。そのため、加工態様を変えることで抽出元楽音波形信号を変化させることにより、様々な音素材を抽出することができる。ここでいうオーディオデータの加工とは、上述したとおり、様々な態様で実現される。この楽音処理装置10においては、オーディオデータが示す楽音波形信号に対して音響効果を付与する信号処理を施す態様、オーディオデータに対して他のオーディオデータを合成する態様、およびオーディオデータのチャンネル数を変換する態様で、オーディオデータを加工して得られる楽音波形信号から、音素材を抽出することができる。   As described above, the musical sound processing apparatus 10 according to the embodiment of the present invention not only extracts the sound material from the musical sound waveform signal indicated by the audio data output based on one track, but also obtains it by processing the audio data. The sound material is extracted from the musical sound waveform signal. Therefore, various sound materials can be extracted by changing the extraction source musical sound waveform signal by changing the processing mode. The processing of the audio data here is realized in various modes as described above. In this musical sound processing apparatus 10, a mode in which signal processing for imparting an acoustic effect to a musical sound waveform signal indicated by audio data, a mode in which other audio data is synthesized with audio data, and the number of channels of audio data are set. The sound material can be extracted from the musical sound waveform signal obtained by processing the audio data in the conversion mode.

<変形例>
以上、本発明の実施形態について説明したが、本発明は以下のように、様々な態様で実施可能である。
[変形例1]
上述した実施形態において、加工態様として一のトラックのオーディオデータに対して他のオーディオデータを合成する態様については、双方のオーディオデータともに、音響効果付与部140によって音響効果が付与された楽音波形信号を示すオーディオデータであったが、音響効果が付与されていない楽音波形信号を示すオーディオデータであってもよい。
すなわち、音素材が抽出される対象として選択可能なオーディオデータには、一のトラックから得られるオーディオデータに対して、上述した加工態様のうち、少なくともいずれかの態様によって加工したものが含まれていればよい。この場合には、楽音処理装置10は、ユーザの指示によって、いずれかの加工態様が選択できるように構成されていてもよい。選択された内容は設定データなどにより規定されるようにすればよい。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention can be implemented in various aspects as follows.
[Modification 1]
In the above-described embodiment, with respect to the mode of synthesizing other audio data with the audio data of one track as the processing mode, the musical sound waveform signal to which the acoustic effect is imparted by the acoustic effect imparting unit 140 is used for both audio data. However, it may be audio data indicating a musical sound waveform signal to which no acoustic effect is given.
That is, the audio data that can be selected as a target from which sound material is extracted includes audio data obtained from one track that has been processed in at least one of the above-described processing modes. Just do it. In this case, the musical sound processing apparatus 10 may be configured such that any processing mode can be selected according to a user instruction. The selected content may be defined by setting data or the like.

[変形例2]
上述した実施形態においては、本発明のデータ処理装置は、再生機能、音素材抽出機能、および修正機能の各機能構成により実現されていたが、修正機能の構成については有していなくてもよい。
[Modification 2]
In the above-described embodiment, the data processing apparatus of the present invention is realized by the functional configurations of the reproduction function, the sound material extraction function, and the correction function, but may not have the configuration of the correction function. .

[変形例3]
上述した実施形態において、本発明のデータ処理装置は、DAWを実現する楽音処理装置10に適用されたものであるが、デジタルミキサ、アナログミキサなどにおいて適用されてもよい。この場合には、音素材抽出機能を有するデータ処理装置は、ミキサによりオーディオデータの加工をすることになる。そして、データ処理装置は、ミキサの各信号ラインにおけるオーディオデータを取得し、このオーディオデータから音素材を抽出し、データベースに登録するようにすればよい。この場合には、オーディオデータの加工を行う再生機能としてはミキサの機能により代替されるため、データ処理装置は、再生機能を実現しない構成であってもよい。このように、データ処理装置は、オーディオデータを加工する機能を実現する構成と、音素材抽出機能を実現する構成とを有していれば、どのような装置にも適用可能である。
[Modification 3]
In the above-described embodiment, the data processing apparatus of the present invention is applied to the musical sound processing apparatus 10 that realizes DAW, but may be applied to a digital mixer, an analog mixer, or the like. In this case, the data processing apparatus having the sound material extraction function processes the audio data by the mixer. Then, the data processing device may acquire the audio data in each signal line of the mixer, extract the sound material from the audio data, and register it in the database. In this case, since the playback function for processing the audio data is replaced by the function of the mixer, the data processing apparatus may be configured not to realize the playback function. As described above, the data processing apparatus can be applied to any apparatus as long as it has a configuration for realizing a function of processing audio data and a configuration for realizing a sound material extraction function.

[変形例4]
上述した実施形態においては、データ出力部230は、特定データなどを出力してデータベースに登録していたが、必ずしもデータベースに登録される態様でなくてもよい。例えば、データ出力部230から出力される特定データなどは、インターフェイス14から外部装置に出力されるようにしてもよい。
[Modification 4]
In the embodiment described above, the data output unit 230 outputs specific data or the like and registers it in the database. However, the data output unit 230 does not necessarily have to be registered in the database. For example, specific data output from the data output unit 230 may be output from the interface 14 to an external device.

[変形例5]
上述した実施形態において、データ出力部230は、音素材DBへの音素材の登録に伴い、登録した音素材とその発音タイミングとを規定する音素材トラックに相当するデータ(音素材タイミングデータ)を出力して記憶部15に記憶するようにしてもよい。すなわち、1つの波形データの抽出元楽音波形信号から抽出された音素材の識別子と、音素材に対応する特定区間の開始時刻を示す情報とを対応付けたデータを記憶部15に記憶すればよい。
[Modification 5]
In the embodiment described above, the data output unit 230 generates data (sound material timing data) corresponding to the sound material track that defines the registered sound material and the sound generation timing in accordance with the registration of the sound material in the sound material DB. You may make it output and memorize | store in the memory | storage part 15. FIG. That is, the storage unit 15 may store data in which the identifier of the sound material extracted from one waveform data extraction source musical sound waveform signal and the information indicating the start time of the specific section corresponding to the sound material are associated with each other. .

図11は、本発明の変形例5における音素材タイミングデータの例を説明する図である。音素材タイミングデータは、音素材トラックにおける再生開始タイミングおよび音素材No.の部分に対応するのデータである。再生開始タイミングは、小節数、拍数、ティック数などの相対的な時刻として表される一方、特定区間の始まりの時刻は、楽音波形信号の先頭から経過時間に対応する絶対的な時刻である。そのため、データ出力部230は、予め決められたテンポ(例えば、テンポ=120(1拍0.5秒))を基準とすることによって、絶対的な時刻から相対的な時刻に変換して、音素材タイミングデータとして記憶する。なお、再生開始タイミングは、絶対的な時刻で表されていてもよく、この場合には上記のような変換は不要である。
このようにして記憶された音素材タイミングデータは、再生機能によって上記テンポで再生されると、抽出元楽音波形信号のうち、抽出された音素材部分が発音され、それ以外の部分がミュートされたような発音内容としてスピーカ161から出力されることになる。
FIG. 11 is a diagram for explaining an example of sound material timing data in Modification 5 of the present invention. The sound material timing data includes the reproduction start timing and the sound material No. in the sound material track. The data corresponding to the part. The playback start timing is expressed as a relative time such as the number of measures, beats, and ticks, while the start time of a specific section is an absolute time corresponding to the elapsed time from the beginning of the musical sound waveform signal. . For this reason, the data output unit 230 converts the absolute time into the relative time by using a predetermined tempo (for example, tempo = 120 (1 beat 0.5 seconds)) as a reference. Store as material timing data. Note that the reproduction start timing may be expressed in absolute time, and in this case, the above conversion is unnecessary.
When the sound material timing data stored in this way is reproduced at the above tempo by the reproduction function, the extracted sound material portion of the extracted source musical sound waveform signal is pronounced and the other portions are muted. Such a pronunciation is output from the speaker 161.

なお、データ出力部230は、音素材タイミングデータの形式ではなく、音素材トラックの形式で出力して記憶部15に記憶するようにしてもよい。この場合には、音量、時間については、予め決められた値が決定されてもよいし、音素材の内容に応じて決定されてもよい。例えば、音量については、音素材に対応する楽音波形信号の信号レベルに応じて決定されればよい。時間については、音素材に対応する楽音波形信号の長さに応じて決定されればよい。
また、データ出力部230は、音素材DBに登録される形式において、各音素材に対して再生開始タイミングが対応付けられたデータとして出力して記憶部15に記憶するようにしてもよい。
Note that the data output unit 230 may output the data in the format of the sound material track instead of the format of the sound material timing data and store it in the storage unit 15. In this case, for sound volume and time, predetermined values may be determined, or may be determined according to the content of the sound material. For example, the volume may be determined according to the signal level of the musical sound waveform signal corresponding to the sound material. The time may be determined according to the length of the musical sound waveform signal corresponding to the sound material.
In addition, the data output unit 230 may output data stored in the storage unit 15 in association with the reproduction start timing for each sound material in a format registered in the sound material DB.

[変形例6]
上述した実施形態において、音素材トラックは、発音させる音素材を、その識別子によって規定するものであったが、特徴量データによって規定するものであってもよい。
[Modification 6]
In the above-described embodiment, the sound material track defines the sound material to be sounded by its identifier, but it may be defined by feature amount data.

図12は、本発明の変形例6における音素材トラックの例を説明する図である。図12に示すように、この例における音素材トラックは、図4に示す実施形態の場合の音素材の識別子を示す部分が、特徴量データを示す部分となっている。この場合、再生機能におけるデータ読出部110−3は、音素材トラックから特徴量データを読み出して、この特徴量データに類似する特徴量データを音素材DBから検索して特定する。そして、データ読出部110−3は、特定した特徴量データに対応する音素材データを、音素材トラックにより規定された再生開始タイミングで、音素材データ合成部130に出力すればよい。
なお、複数種類の音素材DBが記憶部15に記憶されている場合には、データ読出し部110−3が音素材データを特定するための検索対象とする音素材DBについても、時系列に音素材トラックに規定されるようにしてもよい。この構成については、後述する変形例7以降において詳細を説明する。
FIG. 12 is a diagram for explaining an example of a sound material track in the sixth modification of the present invention. As shown in FIG. 12, in the sound material track in this example, the part indicating the identifier of the sound material in the embodiment shown in FIG. 4 is the part indicating the feature data. In this case, the data reading unit 110-3 in the reproduction function reads the feature amount data from the sound material track, and searches the sound material DB for feature amount data similar to the feature amount data to specify the feature amount data. Then, the data reading unit 110-3 may output the sound material data corresponding to the specified feature amount data to the sound material data synthesizing unit 130 at the reproduction start timing specified by the sound material track.
When a plurality of types of sound material DBs are stored in the storage unit 15, the sound material DBs to be searched for the data reading unit 110-3 to specify sound material data are also recorded in time series. It may be defined in the material track. Details of this configuration will be described in Modification 7 and later.

また、音素材トラックは、さらに別の態様によっても規定され得る。例えば、音素材の識別子により楽音波形信号を規定する代わりに、シーケンスデータにおける各トラック(この例においてはオーディオトラック、MIDIトラック)と、そのトラックに基づいて生成されるオーディオデータのデータ範囲との組み合わせにより楽音波形信号を規定するようにしてもよい。   The sound material track can also be defined by another aspect. For example, instead of prescribing a musical sound waveform signal by an identifier of sound material, a combination of each track in the sequence data (in this example, an audio track, a MIDI track) and a data range of audio data generated based on the track Thus, a musical sound waveform signal may be defined.

図13は、本発明の変形例6における音素材トラックの別の例を説明する図である。図13に示すように、この例における音素材トラックは、図4に示す実施形態の場合の音素材の識別子を示す部分が、トラックを指定する部分(指定トラック)とデータ範囲を指定する部分となっている。指定トラックは、トラックの番号を示している。図13に示す例においては、tr1、tr2が示されているが、実施形態の動作例を用いて説明すれば、これらのトラックはともにオーディオトラックを示している。なお、tr3、tr4であればMIDIトラックとなる。
また、データ範囲は、音素材DBにおけるデータ範囲と同様に、時刻指定情報により規定される。この場合の時刻指定情報は、指定トラックに基づいて生成されるオーディオデータのデータ先頭からの時刻として決められている。なお、データ範囲は、予め決められたテンポ(例えば、テンポ=120(1拍0.5秒))で再生された場合を基準として規定されていてもよいし、設定データにより規定されたテンポで再生された場合を基準として規定されていてもよい。
FIG. 13 is a diagram for explaining another example of the sound material track in the sixth modification of the present invention. As shown in FIG. 13, in the sound material track in this example, the sound material identifier in the embodiment shown in FIG. 4 includes a portion for designating a track (designated track) and a portion for designating a data range. It has become. The designated track indicates the track number. In the example shown in FIG. 13, tr1 and tr2 are shown. However, when described using the operation example of the embodiment, both of these tracks indicate audio tracks. In addition, if it is tr3, tr4, it will become a MIDI track.
Further, the data range is defined by the time designation information in the same manner as the data range in the sound material DB. The time designation information in this case is determined as the time from the beginning of the audio data generated based on the designated track. The data range may be defined based on a case where playback is performed at a predetermined tempo (for example, tempo = 120 (1 beat 0.5 seconds)), or at a tempo defined by the setting data. It may be defined on the basis of the case where it is reproduced.

この音素材トラックにおいて指定トラックがオーディオトラックである場合、データ読出部110−3は、指定トラックに基づいてデータ読出部110−1から出力されるオーディオデータ(分岐B1から出力されるオーディオデータ)のうちデータ範囲が示すオーディオデータに相当する部分を、音素材データとして出力する。このように音素材データとして出力される部分については、データ読出部110−3は、実際のシーケンスデータの再生に先立って、データ読出部110−1から取得しておけばよい。例えば、シーケンスデータの再生前に、予めデータ読出部110−1を動作させて、データ範囲におけるオーディオデータを出力させればよい。   In this sound material track, when the designated track is an audio track, the data reading unit 110-3 performs the audio data output from the data reading unit 110-1 based on the designated track (audio data output from the branch B1). A portion corresponding to the audio data indicated by the data range is output as sound material data. As described above, the data reading unit 110-3 may acquire the portion output as sound material data from the data reading unit 110-1 prior to actual sequence data reproduction. For example, before reproducing sequence data, the data reading unit 110-1 may be operated in advance to output audio data in the data range.

指定トラックがMIDIトラックである場合には、データ読出部110−3は、指定トラックに基づいて音源部120から出力されるオーディオデータ(分岐B2から出力されるオーディオデータ)のうちデータ範囲が示すオーディオデータに相当する部分を、音素材データとして出力する。このように音素材データとして出力される部分については、データ読出部110−3は、実際のシーケンスデータの再生に先立って、音源部120から取得しておけばよい。例えば、シーケンスデータの再生前に、予めデータ読出部110−2および音源部120を動作させて、データ範囲におけるオーディオデータを出力させればよい。   In the case where the designated track is a MIDI track, the data reading unit 110-3 displays the audio indicated by the data range among the audio data output from the sound source unit 120 (audio data output from the branch B2) based on the specified track. The portion corresponding to the data is output as sound material data. As described above, the data reading unit 110-3 may acquire the portion output as the sound material data from the sound source unit 120 prior to actual sequence data reproduction. For example, before reproducing the sequence data, the data reading unit 110-2 and the sound source unit 120 may be operated in advance to output audio data in the data range.

[変形例7]
上述した変形例6の説明にて述べた、複数種類の音素材DBが記憶部15に記憶されている場合には、データ読出し部110−3が音素材データを特定するための検索対象とする音素材DBについても、時系列に音素材トラックに規定されるようにしてもよいとした例について、詳細に説明する。ここでは、これらの処理が楽音処理装置10においてのみ行われる場合ではなく、複数の装置間のやり取りを含んで行われる場合について説明する。
[Modification 7]
In the case where a plurality of types of sound material DBs are stored in the storage unit 15 described in the description of the modification example 6 described above, the data reading unit 110-3 is a search target for specifying sound material data. An example in which the sound material DB may be defined in the sound material track in time series will be described in detail. Here, a case where these processes are performed not only in the musical sound processing apparatus 10 but including exchanges between a plurality of apparatuses will be described.

図14は、本発明の変形例7における発音制御システム1の構成を説明するブロック図である。発音制御システム1は、インターネットなどの通信回線1000を介して接続される楽音処理装置10Aおよびサーバ装置50を有する。
楽音処理装置10Aは、上述した実施形態に示した楽音処理装置10と概ね同じ構成を有している。楽音処理装置10Aのインターフェイス14は、さらに、通信回線1000を介してサーバ装置50と各種情報のやり取りを行う通信部としても機能する。また、楽音処理装置10Aの記憶部15には音素材DBおよび波形DBは記憶されていなくてもよく、この例では、これらのDBはサーバ装置50において記憶されている。また、楽音処理装置10Aの記憶部15には、制御部11において実行される音素材トラック作成プログラムを記憶している。音素材トラック作成プログラムは、本変形例における音素材トラックを作成するためのプログラムである。
FIG. 14 is a block diagram illustrating the configuration of the sound generation control system 1 according to Modification 7 of the present invention. The sound generation control system 1 includes a musical sound processing device 10A and a server device 50 connected via a communication line 1000 such as the Internet.
The musical tone processing apparatus 10A has substantially the same configuration as the musical tone processing apparatus 10 shown in the above-described embodiment. The interface 14 of the musical sound processing device 10A further functions as a communication unit that exchanges various types of information with the server device 50 via the communication line 1000. In addition, the sound material DB and the waveform DB may not be stored in the storage unit 15 of the musical sound processing device 10A. In this example, these DBs are stored in the server device 50. The storage unit 15 of the musical tone processing apparatus 10A stores a sound material track creation program executed by the control unit 11. The sound material track creation program is a program for creating a sound material track in this modification.

図15は、本発明の変形例7におけるサーバ装置50の構成を説明する図である。サーバ装置50は、制御部51、通信部54および記憶部55を有する。これらの各構成は、バスを介して接続されている。
制御部51は、CPU、RAM、ROMなどを有する。制御部51は、ROMまたは記憶部55に記憶された各種プログラムを実行することにより、各種機能を実現する。この例においては、制御部51は、楽音処理装置10Aからの指示により、検索プログラムを実行する。検索プログラムが実行されると、楽音処理装置10Aからの指示に応じて、記憶部55の音素材DBを検索して、特定した音素材データを楽音処理装置10Aに送信する機能を実現する。この機能の詳細については別途説明する。
FIG. 15 is a diagram illustrating the configuration of the server device 50 according to Modification 7 of the present invention. The server device 50 includes a control unit 51, a communication unit 54, and a storage unit 55. Each of these components is connected via a bus.
The control unit 51 includes a CPU, RAM, ROM, and the like. The control unit 51 implements various functions by executing various programs stored in the ROM or the storage unit 55. In this example, the control unit 51 executes a search program according to an instruction from the musical tone processing apparatus 10A. When the search program is executed, a function of searching the sound material DB in the storage unit 55 and transmitting the specified sound material data to the music sound processing device 10A according to an instruction from the music sound processing device 10A is realized. Details of this function will be described separately.

通信部54は、制御部51の制御に応じて、通信回線1000と接続して、楽音処理装置10Aなどの通信装置と情報のやりとりを行う。制御部51は、通信部54を介して取得した情報を用いて、記憶部55に記憶された情報を更新するようにしてもよい。また、通信部54は、通信回線1000を介した通信に限らず、有線または無線により外部装置と接続可能に構成されたインターフェイスを有していてもよい。   The communication unit 54 is connected to the communication line 1000 under the control of the control unit 51, and exchanges information with a communication device such as the musical tone processing device 10A. The control unit 51 may update the information stored in the storage unit 55 using the information acquired via the communication unit 54. The communication unit 54 is not limited to communication via the communication line 1000, and may have an interface configured to be connectable to an external device by wire or wireless.

記憶部55は、ハードディスク、不揮発性メモリなどであり、音素材DB、波形DBをそれぞれ記憶する記憶領域の他、上述した検索プログラムなどの各種プログラムを記憶する記憶領域を有する。波形DBは上述したように楽音処理装置10の記憶部15に記憶されていた波形DBと同様であるから説明を省略する。
音素材DBは、複数の音素材DB(音素材DBa、DBb,・・・)から構成されている。以下、それぞれを特に区別せずに説明する場合には、音素材DBという。音素材DBのそれぞれは、登録された音素材データは異なるものの、データベースの構成としては、上述した楽音処理装置10の記憶部15に記憶されていた音素材DBと同様であるから説明を省略する。なお、音素材DBについては、予め記憶部55に記憶されているが、通信部54を介して外部装置から取得することにより、新たな種類の音素材DBがさらに記憶されるようにしてもよい。
The storage unit 55 is a hard disk, a nonvolatile memory, or the like, and has a storage area for storing various programs such as the search program described above, in addition to a storage area for storing the sound material DB and the waveform DB. Since the waveform DB is the same as the waveform DB stored in the storage unit 15 of the musical sound processing apparatus 10 as described above, description thereof is omitted.
The sound material DB is composed of a plurality of sound material DBs (sound material DBa, DBb,...). In the following description, each of them will be referred to as a sound material DB when they are described without distinction. Although each of the sound material DBs is different from the registered sound material data, the structure of the database is the same as the sound material DB stored in the storage unit 15 of the musical sound processing apparatus 10 described above, and thus the description thereof is omitted. . The sound material DB is stored in advance in the storage unit 55, but a new type of sound material DB may be further stored by obtaining the sound material DB from an external device via the communication unit 54. .

図16は、本発明の変形例7における音素材トラックの例を説明する図である。この例における音素材トラックは、特徴量指定データ(図16(a))およびDB指定データ(図16(b))により構成される。特徴量指定データは、発音タイミングを示す再生時刻、そのタイミングに発音させたい音素材データに相当する特徴量データ、発音の音量および時間が対応付けられている。図16(a)の例によれば、再生時刻「0002:01:000」(第2小節第1拍に対応)においては、特徴量データPiに基づく音を、音量「20」、発音時間「120」で発音させることが示されている。なお、後述するように、発音される特徴量データPiに基づく音は、特徴量データPiの音素材データが示す音素材とは限らず、類似する音のいずれかとなる。
DB指定データは、特徴量指定データによって示される特徴量データを用いて、サーバ装置50において音素材データを特定するときの検索対象となる音素材DBの種類を再生時刻の範囲として設定されたデータである。図16(b)の例によれば、再生時刻「0001:01:000」から「0001:03:959」までは、検索対象となるデータベースは音素材DBaであることを示している。
FIG. 16 is a diagram for explaining an example of a sound material track in Modification 7 of the present invention. The sound material track in this example is composed of feature quantity designation data (FIG. 16A) and DB designation data (FIG. 16B). The feature amount designation data is associated with a reproduction time indicating a sound generation timing, feature amount data corresponding to sound material data to be generated at that timing, sound volume and time. According to the example of FIG. 16A, at the reproduction time “0002: 01: 000” (corresponding to the first bar of the second measure), the sound based on the feature amount data Pi is set to the volume “20”, the sound generation time “ 120 ”is shown to be pronounced. As will be described later, the sound based on the feature value data Pi to be generated is not limited to the sound material indicated by the sound material data of the feature value data Pi, and is a similar sound.
The DB designation data is data in which the type of sound material DB to be searched when the sound material data is specified in the server device 50 is set as the playback time range using the feature quantity data indicated by the feature quantity designation data. It is. According to the example of FIG. 16B, the database to be searched is the sound material DBa from the reproduction times “0001: 01: 000” to “0001: 03: 959”.

次に、楽音処理装置10Aの制御部11が音素材トラック作成プログラムを実行し、それに伴いサーバ装置50の制御部51が検索プログラムを実行することによって実現される機能について説明する。なお、以下に説明する機能を実現する各構成の一部または全部については、ハードウエアによって実現してもよい。   Next, functions realized when the control unit 11 of the musical sound processing device 10A executes the sound material track creation program and the control unit 51 of the server device 50 executes the search program along with this will be described. Note that some or all of the components for realizing the functions described below may be realized by hardware.

図17は、本発明の変形例7における楽音処理装置10Aおよびサーバ装置50の機能を説明する機能ブロック図である。制御部11が音素材トラック作成プログラムを実行すると、表示制御部310、設定部320、発音制御部330およびデータ出力部340を構成する。この例においては楽音処理装置10Aは、表示制御部310、設定部320および発音制御部330が構成されることにより発音制御装置として機能する。また、制御部51が検索プログラムを実行すると、特定部510を構成する。この例においてはサーバ装置50は、特定部510が構成されることにより特定装置として機能する。
表示制御部310は、ユーザによって入力される指示に応じて、表示画面131の表示内容を制御する。この場合、表示画面131には、図18に示すような内容が表示される。
FIG. 17 is a functional block diagram for explaining the functions of the musical sound processing device 10A and the server device 50 according to the seventh modification of the present invention. When the control unit 11 executes the sound material track creation program, a display control unit 310, a setting unit 320, a sound generation control unit 330, and a data output unit 340 are configured. In this example, the musical sound processing device 10A functions as a sound generation control device by including a display control unit 310, a setting unit 320, and a sound generation control unit 330. When the control unit 51 executes the search program, the specifying unit 510 is configured. In this example, the server device 50 functions as a specific device when the specifying unit 510 is configured.
The display control unit 310 controls the display content of the display screen 131 in accordance with an instruction input by the user. In this case, the display screen 131 displays the contents as shown in FIG.

図18は、本発明の変形例7における音素材トラック作成プログラム実行時の表示画面131の表示例を説明する図である。表示画面131には、大きく分けてアイコン配置領域STおよびDB配置領域DTが表示される。アイコン配置領域STおよびDB配置領域DTは、横軸を共通の時間軸として決められている。拍子線BLは、1拍ごとの位置を示す補助線である。また、アイコン配置領域STは、縦軸が発音の音量を規定する音量軸である。なお、アイコン画像の位置に関係なく音量が規定されるものとすれば音量軸はなくてもよい。   FIG. 18 is a diagram for explaining a display example of the display screen 131 when the sound material track creation program is executed according to the seventh modification of the present invention. On the display screen 131, an icon arrangement area ST and a DB arrangement area DT are displayed roughly. The icon arrangement area ST and the DB arrangement area DT are determined with the horizontal axis as a common time axis. The beat line BL is an auxiliary line indicating the position for each beat. In the icon arrangement area ST, the vertical axis is a volume axis that defines the volume of the sound. Note that the volume axis may not be provided if the volume is defined regardless of the position of the icon image.

アイコン画像s1、s2、・・・は、特徴量データが対応付けられた画像である。アイコン画像s1、s2、・・・がアイコン配置領域STに配置されることにより、アイコン画像左端の時間軸に沿った方向の位置に応じて、それぞれ対応した特徴量データに基づく音の発音タイミングが規定される。また、アイコン画像下端の音量軸に沿った方向の位置に応じて、その音量が規定される。アイコン画像s1、s2、・・・の絵柄の種類は、対応付けられた特徴量データが分類されるカテゴリ(分類A、B、・・・)ごとに異なるように決められている。例えば、アイコン画像s1に対応する特徴量データとアイコン画像s2に対応する特徴量データとは異なるカテゴリに分類されるものであり、アイコン画像s2に対応する特徴量データとアイコン画像s4に対応する特徴量データとは同じカテゴリに分類されるものである。なお、アイコン画像の絵柄は、カテゴリに応じて異なったものでなくてもよい。すなわち、全て同じ絵柄であってもよいし、別のパラメータに応じて異なる絵柄になるように制御されてもよい。   Icon images s1, s2,... Are images associated with feature amount data. .. Are arranged in the icon arrangement region ST, so that the sound generation timing based on the corresponding feature amount data is set according to the position in the direction along the time axis at the left end of the icon image. It is prescribed. The volume is defined according to the position in the direction along the volume axis at the lower end of the icon image. The types of patterns of the icon images s1, s2,... Are determined so as to be different for each category (classification A, B,...) Into which the associated feature amount data is classified. For example, the feature amount data corresponding to the icon image s1 and the feature amount data corresponding to the icon image s2 are classified into different categories, and the feature amount data corresponding to the icon image s2 and the feature corresponding to the icon image s4. Quantity data is classified into the same category. Note that the pattern of the icon image may not be different depending on the category. That is, all may be the same pattern, or may be controlled so as to be different according to different parameters.

DB画像d1、d2、・・・は、音素材DBの種類が対応付けられた画像である。DB画像d1、d2、・・・が、DB配置領域DTに配置され、DB画像の左端から右端の時間軸に沿った方向の位置に応じて、そのDB画像に対応する音素材DBがサーバ装置50における検索対象として適用される期間が規定される。例えば、音素材DBaは、時刻t0から時刻t2までが検索対象として適用され、音素材DBcは、時刻t1から時刻t3までが検索対象として適用される。すなわち、時刻t1から時刻t2までは、音素材DBaと音素材DBcとの双方が検索対象として適用される。   The DB images d1, d2,... Are images in which the types of sound material DBs are associated. DB images d1, d2,... Are arranged in the DB arrangement region DT, and the sound material DB corresponding to the DB image is stored in the server apparatus according to the position in the direction along the time axis from the left end to the right end of the DB image. A period to be applied as a search target in 50 is defined. For example, the sound material DBa is applied as a search target from time t0 to time t2, and the sound material DBc is applied as a search target from time t1 to time t3. That is, from time t1 to time t2, both the sound material DBa and the sound material DBc are applied as search targets.

また、表示画面131には、再生テンポを設定するためのテンポ制御ボタンb11、アイコン配置領域のアイコン画像の配置態様に基づいて、音素材トラックをオーディオデータに変換するための指示を行うための変換指示ボタンb12、変換により生成されたオーディオデータを発音させるための再生指示ボタンb13が表示される。このテンポ制御ボタンb11は、上述したテンポ制御ボタンb1と同様の機能を有している。また、作成した音素材トラックを記憶部15に記憶させるための決定ボタンb14が表示されていてもよい。   The display screen 131 also includes a tempo control button b11 for setting the playback tempo, and a conversion for giving an instruction to convert the sound material track into audio data based on the arrangement mode of the icon image in the icon arrangement area. An instruction button b12 and a reproduction instruction button b13 for causing the audio data generated by the conversion to sound are displayed. The tempo control button b11 has the same function as the tempo control button b1 described above. In addition, a determination button b14 for storing the created sound material track in the storage unit 15 may be displayed.

図17に戻って説明を続ける。設定部320は、ユーザによって入力された指示に応じて、時間軸に沿って音素材DBの種類を設定する。この例においては、設定部320は、設定内容を表示制御部310に出力して、図18に示すように表示画面にDB画像を表示させる。なお、設定部320は、表示制御部310への出力をせずに、DB画像が表示画面131に表示されないようにしてもよい。この場合には、DB配置領域DTは不要である。すなわち、音素材DBの種類がアイコン配置領域STと同じ時間軸に沿って設定されていれば、その設定内容が表示画面131に表示されていても表示されていなくてもよい。   Returning to FIG. 17, the description will be continued. The setting unit 320 sets the type of the sound material DB along the time axis according to the instruction input by the user. In this example, the setting unit 320 outputs the setting content to the display control unit 310 to display the DB image on the display screen as shown in FIG. The setting unit 320 may prevent the DB image from being displayed on the display screen 131 without outputting to the display control unit 310. In this case, the DB arrangement area DT is not necessary. That is, if the type of the sound material DB is set along the same time axis as the icon arrangement area ST, the setting content may or may not be displayed on the display screen 131.

表示制御部310および設定部320は、アイコン画像の配置態様、音素材DBの種類の設定態様に応じて音素材トラックを生成する。ここで、表示制御部310は、音素材トラックのうち、特徴量指定データを生成し、設定部320は、音素材トラックのうちDB指定データを生成する。音素材トラックは、アイコン画像が配置されたり、音素材DBの設定が行われたりする度に内容が決定されるようにしてもよいし、変換指示ボタンb12が操作されたときに決定されるようにしてもよい。上述した保存ボタンb14が表示画面131に表示されている場合には、ユーザによって保存ボタンb14が操作が操作されると、ここで生成された音素材トラックが記憶部15に保存される。   The display control unit 310 and the setting unit 320 generate a sound material track in accordance with the icon image arrangement mode and the sound material DB type setting mode. Here, the display control unit 310 generates feature amount designation data among the sound material tracks, and the setting unit 320 generates DB designation data among the sound material tracks. The sound material track may be determined every time an icon image is arranged or the sound material DB is set, or when the conversion instruction button b12 is operated. It may be. When the save button b14 described above is displayed on the display screen 131, when the user operates the save button b14, the sound material track generated here is saved in the storage unit 15.

発音制御部330は、ユーザによって変換指示ボタンb12が操作されると、サーバ装置50に対して、生成された音素材トラックの一部または全部を通信部14を介して送信し、サーバ装置50の制御部51に検索プログラムを起動、実行させる。音素材トラックの一部とは、少なくとも、特徴量データと、その特徴量データに対して時間軸において対応関係にある音素材DBの種類(種類情報)とを対応付けた部分のデータである。そして、発音制御部330は、サーバ装置50から音素材データをインターフェイス14を介して受信して、受信した音素材データおよび音素材トラックに基づいて、データ出力部340からオーディオデータを出力させる。具体的には、発音制御部330は、音素材トラックの特徴量指定データを参照して、アイコン画像に対応する音素材データを音量に応じてレベルを変化させる加工をし、再生時刻に応じたタイミングでオーディオデータとして出力させる。データ出力部340は、発音制御部330の制御に応じてオーディオデータを出力する。   When the conversion instruction button b <b> 12 is operated by the user, the sound generation control unit 330 transmits a part or all of the generated sound material track to the server device 50 via the communication unit 14. The control unit 51 starts and executes a search program. The part of the sound material track is at least data of a part in which the feature amount data is associated with the type (type information) of the sound material DB corresponding to the feature amount data on the time axis. Then, the sound generation control unit 330 receives the sound material data from the server device 50 via the interface 14 and causes the data output unit 340 to output the audio data based on the received sound material data and the sound material track. Specifically, the sound generation control unit 330 refers to the feature value designation data of the sound material track, processes the sound material data corresponding to the icon image to change the level according to the volume, and according to the reproduction time Output as audio data at timing. The data output unit 340 outputs audio data according to the control of the sound generation control unit 330.

特定部510は、発音制御部330から送信された音素材トラックに基づく情報を通信部54を介して受信し、記憶部55に記憶された音素材DBのうち、受信した情報が示す検索対象となる種類の音素材DBを検索し、音素材トラックに含まれる各特徴量データのそれぞれに対して、類似する特徴量データをもつ音素材データを特定する。この例においては、特定部510は、特徴量データを複数の特徴量により構成されるベクトル量として取り扱い、検索対象となる種類の音素材DBを参照してユークリッド距離が最も短くなる特徴量データをもつ音素材データを特定する。
なお、類似度を判断するためのアルゴリズムについては、公知の他のアルゴリズムを用いてもよい。また、ユークリッド距離が最も短くなるものでなくてもよく、2番目、3番目に近いものを特定してもよい。このような特定を行うために必要な情報は、予めユーザなどにより設定されていればよい。また、特定される音素材データは、音素材トラックに含まれる特徴量データに対して、特徴量データが類似関係にあるものでなくてもよく、予め決められた特定の関係にあればよい。また、検索対象については、検索対象となる種類の音素材DBとするだけなく、さらに、カテゴリにより絞りこまれてもよい。この場合には、検索対象となるカテゴリは、例えばユーザによって指示されたものであってもよいし、音素材トラックに含まれる特徴量データと同じカテゴリまたは関連するカテゴリであってもよい。ここで、関連するカテゴリは、予め設定されたアルゴリズムに従って決められてもよいし、予め関連するカテゴリ同士が設定されていてもよい。
The specifying unit 510 receives information based on the sound material track transmitted from the sound generation control unit 330 via the communication unit 54, and among the sound material DB stored in the storage unit 55, the search target indicated by the received information A certain kind of sound material DB is searched, and sound material data having similar feature amount data is specified for each feature amount data included in the sound material track. In this example, the specifying unit 510 treats the feature amount data as a vector amount composed of a plurality of feature amounts, and refers to the type of sound material DB to be searched for feature amount data having the shortest Euclidean distance. Identify sound material data.
Note that other known algorithms may be used as the algorithm for determining the similarity. Further, the Euclidean distance may not be the shortest, and the second and third closest ones may be specified. Information necessary to perform such identification may be set in advance by a user or the like. Further, the specified sound material data may not have a similarity relationship between the feature amount data and the feature amount data included in the sound material track, and may have a predetermined specific relationship. The search target may be narrowed down by category as well as the type of sound material DB to be searched. In this case, the category to be searched may be specified by the user, for example, or may be the same category as the feature amount data included in the sound material track or a related category. Here, the related categories may be determined according to a preset algorithm, or related categories may be set in advance.

そして、特定部510は、特定した素材データを通信部54を介して発音制御部330に送信する。なお、上述の通り、この例においては、通信部54は、音素材トラックに基づく情報を受信することにより取得する取得手段、および特定された素材データを送信することにより出力する出力手段として機能する。
以上が機能構成についての説明である。続いて、音素材トラック作成プログラム実行時の発音制御システム1における動作について図19を用いて説明する。
Then, the specifying unit 510 transmits the specified material data to the sound generation control unit 330 via the communication unit 54. As described above, in this example, the communication unit 54 functions as an acquisition unit that acquires information by receiving information based on a sound material track and an output unit that outputs data by transmitting specified material data. .
The above is the description of the functional configuration. Next, the operation of the sound generation control system 1 when the sound material track creation program is executed will be described with reference to FIG.

図19は、本発明の変形例7における音素材トラック作成プログラム実行時の発音制御システム1の動作を説明する図である。ここでは、楽音処理装置10Aは、ユーザから音素材トラック作成プログラムの実行の指示が入力された後の処理を説明する。音素材トラック作成プログラムが実行されると、表示画面131には、図18に示すように、アイコン配置領域ST、DB配置領域DTなどの表示がなされる。この段階においては、アイコン画像およびDB画像は表示されていないものとする。   FIG. 19 is a diagram for explaining the operation of the sound generation control system 1 when the sound material track creation program is executed according to the seventh modification of the present invention. Here, the musical sound processing apparatus 10 </ b> A will be described with reference to processing after an instruction to execute the sound material track creation program is input from the user. When the sound material track creation program is executed, an icon arrangement area ST, a DB arrangement area DT, and the like are displayed on the display screen 131 as shown in FIG. It is assumed that the icon image and the DB image are not displayed at this stage.

ユーザは、特徴量データの内容を決定する指示、決定した内容により決まる絵柄のアイコン画像をアイコン配置領域STに配置する指示、DB画像をDB配置領域DTに配置する指示を入力することにより、楽音を発生させるためのシーケンスを作成する(ステップS110)。その結果、表示画面131には、図18に示す内容で表示されたものとする。この状態で生成されている音素材トラックは、例えば、図16に示す内容となる。この場合、アイコン画像s3、s4、s5に対応する特徴量データは、Ph、Pi、Pjとなる。   The user inputs an instruction to determine the contents of the feature amount data, an instruction to place an icon image of a pattern determined by the determined contents in the icon arrangement area ST, and an instruction to place the DB image in the DB arrangement area DT, thereby A sequence for generating is generated (step S110). As a result, it is assumed that the display screen 131 is displayed with the contents shown in FIG. The sound material track generated in this state has the contents shown in FIG. 16, for example. In this case, the feature amount data corresponding to the icon images s3, s4, and s5 are Ph, Pi, and Pj.

ユーザは、変換指示ボタンb12を操作することにより変換指示(ステップS120)を入力すると、楽音処理装置10Aは、発音制御部330によりサーバ装置50に音素材トラックを送信する(ステップS130)。送信される音素材トラックは、上述したように、全ての情報でなくてもよく、特徴量データと、その特徴量データに対して時間軸において対応関係にある音素材DBの種類とを対応付けた部分を有したデータであればよい。   When the user inputs a conversion instruction (step S120) by operating the conversion instruction button b12, the musical sound processing device 10A transmits a sound material track to the server device 50 by the sound generation control unit 330 (step S130). The sound material track to be transmitted does not have to be all information as described above, and the feature amount data is associated with the type of the sound material DB having a correspondence relationship with the feature amount data on the time axis. It is sufficient if the data has the same part.

サーバ装置50は、このデータを受信すると、検索プログラムを実行し、特定部510により音素材DBを検索して音素材データを特定する(ステップS140)。例えば、アイコン画像s3に対応する特徴量データPiについては、時間軸において対応関係にある音素材DBの種類となる音素材DBcを検索して、特徴量データPiに類似する特徴量データをもつ音素材データを楽音処理装置10Aに送信する(ステップS150)。このとき、サーバ装置50は、特定した音素材データがどの特徴量データに対応したものであるかが識別できるようにして送信する。   Upon receiving this data, the server device 50 executes a search program, searches the sound material DB by the specifying unit 510, and specifies the sound material data (step S140). For example, for the feature value data Pi corresponding to the icon image s3, a sound material DBc that is a type of the sound material DB having a correspondence relationship on the time axis is searched, and a sound having feature value data similar to the feature value data Pi is searched. The material data is transmitted to the musical tone processing apparatus 10A (step S150). At this time, the server device 50 transmits the identified sound material data so as to be able to identify which feature data corresponds to the specified sound material data.

楽音処理装置10Aは、これらのデータを受信が完了するとその旨をユーザに通知する。ユーザは、再生指示ボタンb13を操作することにより再生指示を入力(ステップS160)すると、発音制御部330によりデータ出力部340を制御させる。発音制御部330は、音素材トラックのうち特徴量指定データを参照して、受信した音素材データの音量を調整して、対応する特徴量データの再生時刻にしたがってオーディオデータとしてデータ出力部340から出力(ステップS170)させ、スピーカ161から発音させる。
ユーザは、スピーカ161からの発音を聴き、所望の音になっている場合には、決定ボタンb14を操作して、音素材トラックを記憶部15に記憶させる。
When the reception of these data is completed, the musical sound processing device 10A notifies the user to that effect. When the user inputs a reproduction instruction by operating the reproduction instruction button b13 (step S160), the sound output control unit 330 controls the data output unit 340. The sound generation control unit 330 refers to the feature value designation data in the sound material track, adjusts the volume of the received sound material data, and outputs from the data output unit 340 as audio data according to the playback time of the corresponding feature value data. The output is made (step S170) and the sound is generated from the speaker 161.
The user listens to the pronunciation from the speaker 161 and, if the sound is desired, operates the enter button b14 to store the sound material track in the storage unit 15.

このようにして、ユーザが作成したシーケンスにしたがって、楽音処理装置10Aからオーディオデータが出力される。ここで、検索対象となる音素材DBの種類は、DB指定データによって規定されている。したがって、ユーザは、DB指定データを変更するだけで検索対象となる音素材DBの種類が変更されるから、特徴量指定データの内容が変更されていなくても、特定部510において特定される音素材データも変化する。したがって、ユーザの再生指示により発音される内容も変化することになる。このとき、音素材データは変化したとしても、特徴量データが変わるわけではないから、音素材データの音が全く違うものに変化せず、大体の場合は同じカテゴリに分類されているものから特定される。したがって、音素材DBの種類が、例えば、楽曲のジャンル(ジャズ、ロックなど)に応じたものとなっている場合には、ユーザはDB指定データを変更するだけでも、同じような発音内容(楽音のパターンなど)を維持したまま、ジャズであったりロックであったりと印象を変更することができる。
なお、実施形態におけるデータ読込部110−3および音素材データ合成部130(図5参照)は、変形例7の構成が適用された場合には発音制御部330の機能と同様にしてオーディオデータを出力するようにすればよい。また、データ読込部110−3および音素材データ合成部130は、データ出力部340から出力されたオーディオデータを記憶部15に記憶しておきオーディオトラックと同様に扱って処理するようにしてもよい。
In this way, audio data is output from the musical sound processing apparatus 10A according to the sequence created by the user. Here, the type of the sound material DB to be searched is defined by the DB designation data. Accordingly, since the user changes the type of the sound material DB to be searched only by changing the DB designation data, even if the content of the feature quantity designation data has not been changed, Material data also changes. Therefore, the content that is pronounced in accordance with the user's reproduction instruction also changes. At this time, even if the sound material data changes, the feature value data does not change, so the sound of the sound material data does not change completely, and in most cases it is specified from those classified in the same category Is done. Therefore, when the type of the sound material DB corresponds to, for example, the genre of music (jazz, rock, etc.), even if the user only changes the DB designation data, the same pronunciation content (musical sound) The impression can be changed, such as jazz or rock, while maintaining the pattern.
Note that the data reading unit 110-3 and the sound material data synthesis unit 130 (see FIG. 5) in the embodiment receive audio data in the same manner as the function of the sound generation control unit 330 when the configuration of the modification example 7 is applied. What is necessary is just to make it output. Further, the data reading unit 110-3 and the sound material data synthesizing unit 130 may store the audio data output from the data output unit 340 in the storage unit 15 and handle and process the audio data in the same manner as the audio track. .

[変形例8]
上述した変形例7において、ユーザによって入力された指示に応じて、アイコン配置領域STに表示されるアイコン画像が時間軸方向に伸縮可能に構成されてもよい。
[Modification 8]
In the modified example 7 described above, the icon image displayed in the icon arrangement area ST may be configured to be expandable and contractable in the time axis direction in accordance with an instruction input by the user.

図20は、本発明の変形例8における音素材トラック作成プログラム実行時の表示画面の表示例を説明する図である。表示制御部310は、表示画面131に表示されたアイコン画像の長さを、ユーザによって入力された指示に応じて時間軸に沿った方向に変化させる。例えば、図18に示すアイコン画像s4を、図20に示すアイコン画像s41のように、時間軸に沿った方向に伸長させる。この場合には、発音制御部330は、このアイコン画像s41に対応する音素材データを出力部340から出力させるときに、アイコン画像s41の時間軸に沿った方向の長さに応じて、タイムストレッチ処理(音素材データの波形を伸ばす処理)、ループ処理(音素材データを繰り返して出力させる処理)などを施すことにより加工し、データ出力部340からオーディオデータとして出力させてもよい。この場合、音素材トラックにおいてアイコン画像に対応して決められている時間が変更される。なお、シーケンス情報として発音終了のタイミング、ループ再生のフラグなど必要な情報が追加されてもよい。
なお、図18に示すアイコン画像は、すべて同じ大きさであり、本変形例での処理により時間軸に沿った方向に伸縮させていたが、伸縮させる前の状態であっても、音素材トラックにおけるそのアイコン画像に対応して決められている時間に応じた長さで表示されてもよい。
FIG. 20 is a diagram for explaining a display example of a display screen when the sound material track creation program is executed according to Modification 8 of the present invention. The display control unit 310 changes the length of the icon image displayed on the display screen 131 in the direction along the time axis according to the instruction input by the user. For example, the icon image s4 shown in FIG. 18 is expanded in the direction along the time axis like the icon image s41 shown in FIG. In this case, when the sound generation control unit 330 outputs the sound material data corresponding to the icon image s41 from the output unit 340, the sound generation control unit 330 performs time stretching according to the length of the icon image s41 along the time axis. Processing may be performed by performing processing (processing for extending the waveform of sound material data), loop processing (processing for repeatedly outputting sound material data), and the like, and the data output unit 340 may output the data as audio data. In this case, the time determined corresponding to the icon image in the sound material track is changed. It should be noted that necessary information such as sound generation end timing and loop playback flag may be added as sequence information.
Note that the icon images shown in FIG. 18 are all the same size and have been expanded and contracted in the direction along the time axis by the processing in this modified example. May be displayed with a length corresponding to the time determined corresponding to the icon image.

[変形例9]
上述した変形例7においては、アイコン配置領域STの縦軸は音量を示す座標軸(音量軸)であったが、例えば、ピッチ、音長などを示す座標軸(以下、指定座標軸という)としてもよい。すなわち、アイコン配置領域STは、音素材データの音量以外の他の加工内容を指定する指定値を示す指定座標軸をもっていてもよい。ピッチを示す指定座標軸とした場合には、発音制御部330は、音素材データのピッチを、アイコン画像の指定座標軸における位置に応じて変更してデータ出力部340からオーディオデータとして出力させればよい。音長を示す指定座標軸とした場合には、発音制御部330は、アイコン画像の指定座標軸に於ける位置に応じて、タイムストレッチ処理(音素材データの波形を伸ばす処理)、ループ処理(音素材データを繰り返して出力させる処理)などを施すことにより加工し、データ出力部340からオーディオデータとして出力させればよい。
また、指定座標軸によって指定される加工内容は、音量、ピッチなど複数種類にわたってもよく、この場合には、ユーザによって入力された指示に応じて、指定座標軸の種類を切り替えて、アイコン画像を配置可能なものとしてもよい。このように切り替え可能な指定座標軸をもつアイコン配置領域STにアイコン画像を配置させることにより、音素材データを様々に加工してもよい。
[Modification 9]
In the modified example 7 described above, the vertical axis of the icon arrangement region ST is a coordinate axis (volume axis) indicating volume, but may be a coordinate axis (hereinafter referred to as a designated coordinate axis) indicating pitch, sound length, and the like. That is, the icon arrangement area ST may have a designated coordinate axis indicating a designated value for designating other processing contents other than the volume of the sound material data. When the designated coordinate axis indicating the pitch is used, the sound generation control unit 330 may change the pitch of the sound material data according to the position of the icon image on the designated coordinate axis and output the audio data from the data output unit 340 as audio data. . When the designated coordinate axis indicating the sound length is used, the sound generation control unit 330 performs time stretching processing (processing for extending the waveform of the sound material data), loop processing (sound material) according to the position of the icon image on the designated coordinate axis. The data output unit 340 may output the data as audio data.
In addition, the processing content specified by the specified coordinate axis may be in multiple types such as volume and pitch. In this case, the icon image can be arranged by switching the type of the specified coordinate axis according to the instruction input by the user. It may be good. The sound material data may be variously processed by arranging the icon image in the icon arrangement area ST having the designated coordinate axis that can be switched in this way.

[変形例10]
上述した変形例7においては、アイコン配置領域STの縦軸は音素材データの加工内容を指定する指定座標軸であったが、特定部510において音素材データを特定するための特定値を示す座標軸(以下、特定座標軸という)としてもよい。この場合には、特定部510は、音素材データを特定するときに、アイコン画像の特定座標軸における位置に応じて特定すればよい。例えば、特定値が類似度に関するものであれば、アイコン配置領域STの上方にアイコン画像が位置するほど、特定部510において特定される音素材データが類似度が低い(特徴量データ間のユークリッド距離が長い)ものが特定されるようにすればよい。
なお、類似度についてはユーザが指定するのではなく、例えば、ユーザが所定の操作(ランダムボタンの操作など)をすることにより、全てのアイコン画像または予め指定されたアイコン画像に対応する類似度が予め決められたアルゴリズム(例えばランダム)に従って指定されるようにしてもよい。
[Modification 10]
In the modified example 7 described above, the vertical axis of the icon arrangement area ST is a designated coordinate axis for designating the processing content of the sound material data, but the coordinate axis (a specific value for identifying the sound material data in the identifying unit 510 ( Hereinafter, it may be referred to as a specific coordinate axis). In this case, the specifying unit 510 may specify the sound material data according to the position of the icon image on the specific coordinate axis. For example, if the specific value is related to the similarity, the sound material data specified by the specifying unit 510 has a lower similarity as the icon image is positioned above the icon arrangement area ST (Euclidean distance between the feature data). (Long) can be specified.
Note that the degree of similarity is not specified by the user. For example, when the user performs a predetermined operation (such as an operation of a random button), the degree of similarity corresponding to all icon images or previously specified icon images can be obtained. It may be specified in accordance with a predetermined algorithm (for example, random).

また、特定値の内容は複数種類にわたってもよく、この場合には、ユーザによって入力された指示に応じて、アイコン配置領域STにおける特定座標軸と変形例9における指定座標軸とを切り替えて、アイコン画像を配置可能なものとしてもよい。他の種類の例としては、例えば、アイコン画像に対応する特徴量データを変化させて分類させるカテゴリを変化させるものであってもよい。   Further, the content of the specific value may include a plurality of types. In this case, the icon image is switched by switching between the specific coordinate axis in the icon arrangement area ST and the designated coordinate axis in the modification 9 in accordance with an instruction input by the user. It is good also as what can be arranged. As another example, for example, a category to be classified by changing feature data corresponding to an icon image may be changed.

[変形例11]
上述した変形例7において、図19に示すステップS170の処理、すなわち、音素材トラック作成プログラムの実行時にデータ出力部340から出力されるオーディオデータは、発音制御部330が、アイコン画像の時間軸における位置に応じたタイミングで音素材データを出力することにより実現していたが、出力期間全体の発音内容を示すデータとして発音制御部330によって生成された後、データ出力部340から出力されるようにしてもよい。発音制御部330は、生成されたオーディオデータを記憶部15に出力して記憶させるようにしてもよい。また、オーディオデータとして記憶させる場合に限らず、音素材トラックと音素材データとの組み合わせなど、オーディオデータを生成するために必要な複数種類のデータで記憶させれるようにしてもよい。各種データを記憶させる指示については、ユーザによって入力されるようにすればよい。
[Modification 11]
In the modification example 7 described above, the sound generation control unit 330 outputs the audio data output from the data output unit 340 during the processing of step S170 shown in FIG. 19, that is, the execution of the sound material track creation program, on the time axis of the icon image. This was realized by outputting the sound material data at a timing according to the position, but it is generated by the sound generation control unit 330 as data indicating the sound generation contents of the entire output period and then output from the data output unit 340. May be. The sound generation control unit 330 may output the generated audio data to the storage unit 15 for storage. Further, the present invention is not limited to storing audio data, and a plurality of types of data necessary for generating audio data such as a combination of a sound material track and sound material data may be stored. The instruction for storing various data may be input by the user.

また、このようなオーディオデータに基づく発音は、楽音処理装置10Aのスピーカ161から出力されていたが、楽音処理装置10Aに接続される外部のスピーカ装置から出力されるようにしてもよいし、サーバ装置50から出力されるようにしてもよい。すなわち、発音制御部330は、音を出力する何らかの装置から発音されるように、オーディオデータを出力させるように、楽音処理装置10Aの構成のみならず接続される各構成を制御すればよい。   In addition, the sound generation based on the audio data is output from the speaker 161 of the musical sound processing device 10A, but may be output from an external speaker device connected to the musical sound processing device 10A. You may make it output from the apparatus 50. FIG. That is, the sound generation control unit 330 may control not only the structure of the musical sound processing apparatus 10A but also each connected structure so that audio data is output so that sound is generated from any device that outputs sound.

[変形例12]
上述した変形例7においては、音素材トラック作成プログラム実行時に表示画面131に表示されるアイコン画像、DB画像などはプログラム上において生成しているが、これらの画像は、予め記憶部15、55などに記憶されていてもよい。
[Modification 12]
In the modified example 7 described above, the icon image, DB image, and the like displayed on the display screen 131 when the sound material track creation program is executed are generated on the program, but these images are stored in advance in the storage units 15, 55, and the like. May be stored.

[変形例13]
上述した変形例7においては、アイコン配置領域STに表示されるアイコン画像に対応する特徴量データの内容は、ユーザが入力した指示に応じて決定していたが、ユーザは、アイコン画像の絵柄(またはカテゴリ)を選択することにより、この絵柄に対応するカテゴリの予め決められた代表値を特徴量データとして決定するようにしてもよい。
[Modification 13]
In the modified example 7 described above, the content of the feature amount data corresponding to the icon image displayed in the icon arrangement area ST is determined according to the instruction input by the user. Alternatively, a predetermined representative value of the category corresponding to the pattern may be determined as the feature amount data by selecting (or category).

[変形例14]
上述した変形例7において、DB指定データの内容は、ユーザがDB配置領域DTにDB画像を配置することにより決定されていたが、予め決められたアルゴリズムにしたがって、再生時刻範囲と音素材DBの種類との関係を、制御部11が自動的に決定するようにしてもよい。
[Modification 14]
In the modified example 7 described above, the content of the DB designation data is determined by the user placing a DB image in the DB placement area DT, but according to a predetermined algorithm, the reproduction time range and the sound material DB The control unit 11 may automatically determine the relationship with the type.

[変形例15]
上述した変形例7において、DB指定データの内容として音素材DBの種類の指定がされていない再生時刻範囲が存在する場合には、指定されていない再生時刻範囲においては、予め決められた音素材DBの種類(全ての種類、一部の特定の種類など)が検索対象として指定されてもよいし、その範囲の直前に指定されていた種類を指定してもよい。
[Modification 15]
In the above-described modification example 7, when there is a playback time range in which the type of the sound material DB is not specified as the contents of the DB specification data, a predetermined sound material is determined in the playback time range not specified. The DB type (all types, some specific types, etc.) may be specified as a search target, or the type specified immediately before the range may be specified.

[変形例16]
上述した実施形態においては、音素材DBのデータ範囲に応じて、適時波形DBから音素材データを取得しているが、あらかじめ切出し済みの区間の音素材データだけを保持しておいても良い。その場合、音素材DBにデータ範囲の情報は不要である。
[Modification 16]
In the embodiment described above, the sound material data is acquired from the timely waveform DB according to the data range of the sound material DB, but only the sound material data of the section that has been cut out in advance may be stored. In that case, data range information is not required in the sound material DB.

[変形例17]
上述した変形例7において、ユーザが音素材データ(特定データ)のデータ範囲を調整できるようにしてもよい。
[Modification 17]
In the modified example 7 described above, the user may be able to adjust the data range of the sound material data (specific data).

図21は、本発明の変形例17における音素材トラック作成プログラム実行時の表示画面の表示例を説明する図である。図21は、変形例7において説明した図18において、ユーザがアイコン画像s3に対して所定の操作(ダブルクリック操作など)をしたときにの表示内容を示している。図21に示すポップアップウインドウPWは、ユーザの操作に応じて表示され、その内容がアイコン画像s3に対応する波形を拡大したものとなっている。ここで、アイコン画像s3に対応する波形とは、再生時にアイコン画像s3に対応して発音される音の波形である。ユーザはポップアップウインドウPWにおいて波形の範囲を変更することにより、時間軸方向の長さを調整することができる。   FIG. 21 is a diagram for explaining a display example of the display screen when the sound material track creation program is executed according to the seventeenth modification of the present invention. FIG. 21 shows the display contents when the user performs a predetermined operation (such as a double click operation) on the icon image s3 in FIG. 18 described in the modified example 7. The pop-up window PW shown in FIG. 21 is displayed according to the user's operation, and its contents are enlarged waveforms corresponding to the icon image s3. Here, the waveform corresponding to the icon image s3 is a waveform of a sound that is pronounced corresponding to the icon image s3 during reproduction. The user can adjust the length in the time axis direction by changing the waveform range in the pop-up window PW.

[変形例18]
上述した変形例7において、DB配置領域DTには、音素材DBの種類が対応付けられたDB画像が表示されていたが、音素材DBの種類とその検索対象となる時刻の範囲とは別々に表示されていてもよい。
[Modification 18]
In the modified example 7 described above, the DB image in which the type of the sound material DB is associated is displayed in the DB arrangement region DT. However, the type of the sound material DB and the time range to be searched are different. May be displayed.

図22は、本発明の変形例18における音素材トラック作成プログラム実行時の表示画面の表示例を説明する図である。この例においては、DB配置領域DTは、指定される音素材DBが各行に分割されて表示される。各行には、指定された音素材DBが検索対象となる時刻の範囲を示すDB期間指定画像d1a、d2a、・・・が配置される。DB配置領域DTの左側には、各行に対応した音素材DBの種類を指定するためのDB種類指定領域DMが表示されている。ユーザは、ポップアップメニューなどにより、各行に対応する音素材DBの種類を変更できるようになっている。   FIG. 22 is a diagram for explaining a display example of the display screen when executing the sound material track creation program according to the modification 18 of the present invention. In this example, the specified sound material DB is divided into lines and displayed in the DB arrangement area DT. In each row, DB period designation images d1a, d2a,... Indicating the time range in which the designated sound material DB is a search target are arranged. On the left side of the DB placement area DT, a DB type designation area DM for designating the type of the sound material DB corresponding to each row is displayed. The user can change the type of the sound material DB corresponding to each row by a pop-up menu or the like.

図22に示す例では、音素材DBa、DBb、DBc指定され、例えば、音素材DBaについては、DB期間指定画像d1aが指定する時刻の範囲において検索対象となる。図22における表示は、図18とは異なる表示であるが、音素材DBの種類およびその検索対象となる時刻の範囲は同じである。
なお、DB種類指定領域DMの左側に表示されているチェックボックスCBにより、対応する行において指定された検索対象を有効とするか無効とするかを指定する事ができるようにしてもよい。このチェックボックスCBは、図18に示す表示において用いられてもよい。
In the example shown in FIG. 22, the sound material DBa, DBb, and DBc are designated. For example, the sound material DBa is a search target in the time range designated by the DB period designation image d1a. The display in FIG. 22 is a display different from that in FIG. 18, but the type of sound material DB and the time range to be searched for are the same.
Note that the check box CB displayed on the left side of the DB type specification area DM may be used to specify whether the search target specified in the corresponding row is valid or invalid. This check box CB may be used in the display shown in FIG.

[変形例19]
上述した変形例7において、図18に示す表示におけるアイコン画像は、ユーザの指示に応じて決定された特徴量データに応じて配置されていた。ユーザが特徴量データを指示するときに、所望の特徴量データを音素材DBから検索するようにしてもよい。このときには、例えば、特開2011−163171号公報に開示された方法を用いればよい。また、このときの検索対象の音素材DBの種類については、図22に示したチェックボックスCBにおいて指定された音素材DBとしてもよい。なお、ユーザがこのようにアイコン画像に対応する特徴量データを指示する場合には、図18に示す表示の一部に、特徴量データの指示をするための表示を行うようにすればよい。また、アイコン画像に対して所定の操作(ダブルクリック操作など)をしたときにポップアップウインドウなどを表示させて、そのアイコン画像に対応する特徴量データを指示できるようにしてもよい。
[Modification 19]
In the modified example 7 described above, the icon image in the display shown in FIG. 18 is arranged according to the feature amount data determined according to the user's instruction. When the user instructs the feature data, the desired feature data may be searched from the sound material DB. At this time, for example, a method disclosed in Japanese Patent Application Laid-Open No. 2011-163171 may be used. Further, the type of sound material DB to be searched at this time may be the sound material DB specified in the check box CB shown in FIG. When the user instructs the feature amount data corresponding to the icon image in this way, a display for instructing the feature amount data may be performed on a part of the display shown in FIG. Further, when a predetermined operation (such as a double click operation) is performed on the icon image, a pop-up window or the like may be displayed so that the feature amount data corresponding to the icon image can be designated.

[変形例20]
上述した変形例7での図18に示す表示において、音素材DBの種類、およびその検索対象となる時刻の範囲については、ユーザが指定していたが、例えば、ユーザが所定の操作(ランダムボタンの操作など)をすることにより、予め決められたアルゴリズム(例えばランダム)に従って指定されるようにしてもよい。また、図8に示すように予め音素材DBの種類、およびその検索対象となる時刻の範囲が決められている場合には、いずれかのDB画像を指定して、指定されたDB画像に対して予め決められたアルゴリズム(例えばランダム)に従って、音素材DBの種類、時刻の範囲が変更されるようにしてもよい。さらには、データベースのランダム選択で、DB配置領域DT自体をアクティブ(音素材DBを選択する機能が生きている状態)にして音素材DBを選択可能にしたり、非アクティブ(音素材DBを選択する機能が生きていない状態)にして特定の音素材DBのみを適用したりすることもランダムに行えるようにしてもよい。さらには、DB配置領域DTにおいて選択されている音素材DBをアクティブ(選択されている音素材DBを検索対象とする状態)にしたり、非アクティブ(選択されている音素材DBを検索対象としない状態)にしたりすることもランダムに行えるようにしてもよい。このとき、アクティブな音素材DBに対応するDB画像は色つきのままとして、非アクティブな音素材DBに対応するDB画像はグレーアウトするなど、表示が変更されている音素材DBについてアクティブか非アクティブか認識できるようにするとよい。
[Modification 20]
In the display shown in FIG. 18 in the modified example 7 described above, the user has specified the type of the sound material DB and the time range to be searched for. For example, the user may perform a predetermined operation (random button). And the like may be designated according to a predetermined algorithm (for example, random). Also, as shown in FIG. 8, when the type of the sound material DB and the time range to be searched are determined in advance, any one of the DB images is designated and the specified DB image is selected. The type of sound material DB and the time range may be changed in accordance with a predetermined algorithm (for example, random). Furthermore, the random selection of the database enables the DB arrangement region DT itself to be active (the function for selecting the sound material DB is alive) to enable selection of the sound material DB, or to be inactive (select the sound material DB). It may also be possible to randomly apply only a specific sound material DB in a state where the function is not alive. Furthermore, the sound material DB selected in the DB arrangement area DT is made active (a state in which the selected sound material DB is a search target) or inactive (the selected sound material DB is not a search target). Or the state) may be performed at random. At this time, the DB image corresponding to the active sound material DB remains colored, and the DB image corresponding to the inactive sound material DB is grayed out. For example, whether the sound material DB whose display is changed is active or inactive. It is good to be able to recognize.

[変形例21]
上述した変形例7での図18に示す表示において、アイコン画像に該当する音がない場合には、アイコン画像をグレーアウトさせてもよい。該当する音がないとは、例えば、そのアイコン画像に対応する時刻を範囲とする音素材DB(検索対象となる音素材DB)が決められていない場合、アイコン画像に対応する特徴量データに基づいて特定部510により特定される音素材データが存在しない場合などがある。特定部510により特定される音素材データが存在しないとは、例えば、アイコン画像に対応する特徴量データに最も類似する音素材データが、しきい値として予め決められた類似度よりも類似していない場合、またカテゴリにより検索対象が絞り込まれる構成であるときに検索対象の音素材DBにそのカテゴリが含まれていない場合などがある。
[Modification 21]
In the display shown in FIG. 18 in the modified example 7 described above, when there is no sound corresponding to the icon image, the icon image may be grayed out. If there is no corresponding sound, for example, if a sound material DB (sound material DB to be searched) corresponding to the icon image is not determined, it is based on the feature amount data corresponding to the icon image. In some cases, the sound material data specified by the specifying unit 510 does not exist. The sound material data specified by the specifying unit 510 does not exist, for example, the sound material data most similar to the feature amount data corresponding to the icon image is more similar than the similarity determined in advance as a threshold value. In some cases, the category is not included in the search target sound material DB when the search target is narrowed down by category.

[変形例22]
上述した変形例7においては、発音制御システム1は、通信回線1000を介して接続された楽音処理装置10Aとサーバ装置50とにより構成されていたが、一体の装置として構成され、通信回線1000を介していない構成としてもよい。また、別体の装置であっても、楽音処理装置10Aにおける各構成の一部がサーバ装置50の構成に含まれていてもよいし、逆に、サーバ装置50の各構成の一部が楽音処理装置10Aの構成に含まれていてもよい。また、楽音処理装置10Aの記憶部15に記憶されている各種情報、およびサーバ装置50の記憶部55に記憶されている各種情報は、発音制御システム1全体としていずれかの記憶部において記憶されていればよく、楽音処理装置10Aおよびサーバ装置50以外に、これらの情報の全部または一部を記憶する記憶装置が通信回線1000に接続されていてもよい。また、これらの情報は、通信回線1000に接続可能な他の楽音処理装置10Aと共有することにより、他のユーザが使用できるようにしてもよい。
組み合わせとしては、例えば、音素材DBはサーバ装置50の記憶部55に記憶されている一方、楽音処理装置10Aにおいて、記憶部15に波形DBが記憶され、特定部510の機能が実現されてもよい。さらには、検索プログラムおよび抽出プログラムの実行は楽音処理装置10Aで実行してもよいし、楽音処理装置10Aから得た情報をもとにサーバ装置50で実行するようにしてもよい。
[Modification 22]
In the modified example 7 described above, the sound generation control system 1 is configured by the musical sound processing device 10A and the server device 50 connected via the communication line 1000. However, the sound generation control system 1 is configured as an integrated device, and the communication line 1000 is connected. It is good also as a structure which is not interposed. Moreover, even if it is a separate apparatus, a part of each structure in 10 A of musical tone processing apparatuses may be included in the structure of the server apparatus 50, and conversely, a part of each structure of the server apparatus 50 is a musical sound. It may be included in the configuration of the processing apparatus 10A. Various information stored in the storage unit 15 of the musical sound processing device 10A and various information stored in the storage unit 55 of the server device 50 are stored in any storage unit as the pronunciation control system 1 as a whole. In addition to the musical sound processing apparatus 10 </ b> A and the server apparatus 50, a storage device that stores all or part of the information may be connected to the communication line 1000. Further, these pieces of information may be used by other users by sharing them with other musical sound processing apparatuses 10A that can be connected to the communication line 1000.
As a combination, for example, while the sound material DB is stored in the storage unit 55 of the server device 50, the waveform DB is stored in the storage unit 15 and the function of the specifying unit 510 is realized in the musical sound processing device 10A. Good. Furthermore, the execution of the search program and the extraction program may be executed by the musical sound processing device 10A, or may be executed by the server device 50 based on information obtained from the musical sound processing device 10A.

[変形例23]
上述した実施形態における各プログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供し得る。また、楽音処理装置10は、各プログラムをネットワーク経由でダウンロードしてもよい。
[Modification 23]
Each program in the above-described embodiment is provided in a state stored in a computer-readable recording medium such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), a magneto-optical recording medium, or a semiconductor memory. Can do. In addition, the musical sound processing apparatus 10 may download each program via a network.

1…発音制御システム、10,10A…楽音処理装置、11…制御部、12…操作部、13…表示部、131…表示画面、14…インターフェイス、15…記憶部、16…音響処理部、161…スピーカ、162…マイクロフォン、100…再生機能部、110−1,110−2,110−3…データ読出部、120…音源部、130…音素材データ合成部、140−1,140−2,140−3,140−4…音響効果付与部、150…オーディオデータ合成部、160…合成音響効果付与部、170…チャンネル変換部、180…バス部、200…音素材抽出機能部、210…選択部、220…抽出部、221…音素材特定部、222…特徴量算出部、230…データ出力部、300…修正部、310…表示制御部、320…設定部、330…発音制御部、340…データ出力部、510…特定部、1000…通信回線 DESCRIPTION OF SYMBOLS 1 ... Sound generation control system 10, 10A ... Music processing apparatus, 11 ... Control part, 12 ... Operation part, 13 ... Display part, 131 ... Display screen, 14 ... Interface, 15 ... Memory | storage part, 16 ... Sound processing part, 161 ... Speaker, 162 ... Microphone, 100 ... Playback function unit, 110-1,110-2,110-3 ... Data reading unit, 120 ... Sound source unit, 130 ... Sound material data synthesis unit, 140-1,140-2, 140-3, 140-4 ... sound effect applying unit, 150 ... audio data synthesizing unit, 160 ... synthesized sound effect applying unit, 170 ... channel converting unit, 180 ... bus unit, 200 ... sound material extraction function unit, 210 ... selection , 220 ... extraction part, 221 ... sound material specifying part, 222 ... feature quantity calculation part, 230 ... data output part, 300 ... modification part, 310 ... display control part, 320 ... setting part, 3 0 ... sound control unit, 340 ... data output unit, 510 ... particular unit, 1000 ... communication line

Claims (6)

発音内容を示す発音データ、および当該発音内容を変化させるための加工データを取得して、当該発音データに対して当該加工データに基づく加工をする加工手段と、
前記加工をされた発音データの発音内容を示す楽音波形信号を解析して、予め決められた特徴を有する楽音波形信号の期間を特定する特定手段と、
前記特定された期間の楽音波形信号を解析して特徴量を算出する算出手段と、
前記特定された期間の楽音波形信号を示す特定データと前記算出された特徴量を示す特徴量データとを出力するデータ出力手段と
を具備することを特徴とするデータ処理装置。
Processing means for obtaining pronunciation data indicating pronunciation content and processing data for changing the pronunciation content, and processing the pronunciation data based on the processing data;
Analyzing the musical sound waveform signal indicating the sound content of the processed sound data, and specifying the period of the musical sound waveform signal having a predetermined characteristic;
A calculation means for analyzing the musical sound waveform signal of the specified period and calculating a feature amount;
A data processing apparatus comprising: data output means for outputting specific data indicating the musical tone waveform signal of the specified period and feature amount data indicating the calculated feature amount.
前記加工データは、前記楽音波形信号に付与する音響効果の内容を規定する設定データを含み、
前記加工手段は、前記設定データに基づいて、前記取得した発音データに係る前記楽音波形信号に音響効果を付与するように前記加工をする
ことを特徴とする請求項1に記載のデータ処理装置。
The processed data includes setting data that defines the content of the acoustic effect to be given to the musical sound waveform signal,
The data processing apparatus according to claim 1, wherein the processing unit performs the processing based on the setting data so as to give an acoustic effect to the musical sound waveform signal related to the acquired sound generation data.
前記加工データは、発音内容を規定する発音データを含み、
前記加工手段は、前記取得した発音データに係る楽音波形信号に対して、前記加工データに含まれる発音データに係る楽音波形信号を合成することにより前記加工をする
ことを特徴とする請求項1または請求項2に記載のデータ処理装置。
The processed data includes pronunciation data defining the pronunciation content,
The processing means performs the processing by synthesizing a musical sound waveform signal related to the sound generation data included in the processed data with a musical sound waveform signal related to the acquired sound generation data. The data processing apparatus according to claim 2.
前記特定データは、前記加工をされた発音データに係る楽音波形信号と当該楽音波形信号の前記特定された期間を示す時刻情報とにより、前記特定された期間の楽音波形信号を示し、
前記特定手段が複数の期間を特定した場合には、
前記特定データは、前記加工をされた発音データに係る楽音波形信号と当該楽音波形信号の前記特定された複数の期間を示す時刻情報とにより、前記特定された複数の期間の楽音波形信号を示し、
前記算出手段は、前記特定された期間毎に前記特徴量を算出する
ことを特徴とする請求項1乃至請求項3のいずれかに記載のデータ処理装置。
The specific data indicates a musical sound waveform signal of the specified period by a musical sound waveform signal related to the processed sound generation data and time information indicating the specified period of the musical sound waveform signal;
When the specifying means specifies a plurality of periods,
The specific data indicates a musical sound waveform signal of the plurality of specified periods by a musical sound waveform signal related to the processed sound generation data and time information indicating the plurality of specified periods of the musical sound waveform signal. ,
The data processing apparatus according to any one of claims 1 to 3, wherein the calculation unit calculates the feature amount for each specified period.
前記特定データは、前記特定された期間の楽音波形信号を抽出した楽音波形信号を示す
ことを特徴とする請求項1乃至請求項3のいずれかに記載のデータ処理装置。
The data processing apparatus according to any one of claims 1 to 3, wherein the specific data indicates a musical sound waveform signal obtained by extracting a musical sound waveform signal of the specified period.
コンピュータを、
発音内容を示す発音データ、および当該発音内容を変化させるための加工データを取得して、当該発音データに対して当該加工データに基づく加工をする加工手段と、
前記加工をされた発音データの発音内容を示す楽音波形信号を解析して、予め決められた特徴を有する楽音波形信号の期間を特定する特定手段と、
前記特定された期間の楽音波形信号を解析して特徴量を算出する算出手段と、
前記特定された期間の楽音波形信号を示す特定データと前記算出された特徴量を示す特徴量データとを出力するデータ出力手段
として機能させるためのプログラム。
Computer
Processing means for obtaining pronunciation data indicating pronunciation content and processing data for changing the pronunciation content, and processing the pronunciation data based on the processing data;
Analyzing the musical sound waveform signal indicating the sound content of the processed sound data, and specifying the period of the musical sound waveform signal having a predetermined characteristic;
A calculation means for analyzing the musical sound waveform signal of the specified period and calculating a feature amount;
A program for functioning as data output means for outputting specific data indicating a musical sound waveform signal of the specified period and feature amount data indicating the calculated feature amount.
JP2011242607A 2011-05-26 2011-11-04 Data processing apparatus and program Active JP6114492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011242607A JP6114492B2 (en) 2011-05-26 2011-11-04 Data processing apparatus and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011118518 2011-05-26
JP2011118518 2011-05-26
JP2011242607A JP6114492B2 (en) 2011-05-26 2011-11-04 Data processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2013007988A true JP2013007988A (en) 2013-01-10
JP6114492B2 JP6114492B2 (en) 2017-04-12

Family

ID=47675366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011242607A Active JP6114492B2 (en) 2011-05-26 2011-11-04 Data processing apparatus and program

Country Status (1)

Country Link
JP (1) JP6114492B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016509408A (en) * 2013-01-15 2016-03-24 ヴィキ, インク.Viki, Inc. System and method for captioning media

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6294896A (en) * 1985-10-21 1987-05-01 ヤマハ株式会社 Musical signal generator
JPS62129894A (en) * 1985-11-30 1987-06-12 カシオ計算機株式会社 Waveform generator
JPH1026986A (en) * 1996-07-11 1998-01-27 Kawai Musical Instr Mfg Co Ltd Musical sound waveform formation method and device therefor
JP2001092453A (en) * 1999-09-24 2001-04-06 Yamaha Corp Re-mixing device and storage medium
JP2005037964A (en) * 2004-09-27 2005-02-10 Yamaha Corp Waveform generating apparatus and method
JP2008250049A (en) * 2007-03-30 2008-10-16 Yamaha Corp Sound conversion apparatus and program
JP2009092926A (en) * 2007-10-09 2009-04-30 Yamaha Corp Music piece processing device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6294896A (en) * 1985-10-21 1987-05-01 ヤマハ株式会社 Musical signal generator
JPS62129894A (en) * 1985-11-30 1987-06-12 カシオ計算機株式会社 Waveform generator
JPH1026986A (en) * 1996-07-11 1998-01-27 Kawai Musical Instr Mfg Co Ltd Musical sound waveform formation method and device therefor
JP2001092453A (en) * 1999-09-24 2001-04-06 Yamaha Corp Re-mixing device and storage medium
JP2005037964A (en) * 2004-09-27 2005-02-10 Yamaha Corp Waveform generating apparatus and method
JP2008250049A (en) * 2007-03-30 2008-10-16 Yamaha Corp Sound conversion apparatus and program
JP2009092926A (en) * 2007-10-09 2009-04-30 Yamaha Corp Music piece processing device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016509408A (en) * 2013-01-15 2016-03-24 ヴィキ, インク.Viki, Inc. System and method for captioning media
US9696881B2 (en) 2013-01-15 2017-07-04 Viki, Inc. System and method for captioning media

Also Published As

Publication number Publication date
JP6114492B2 (en) 2017-04-12

Similar Documents

Publication Publication Date Title
JP5135931B2 (en) Music processing apparatus and program
JP5333517B2 (en) Data processing apparatus and program
WO2008065731A1 (en) Audio processor and audio processing method
US9792916B2 (en) Multifunctional audio signal generation apparatus
CN105637579B (en) By switching between multiple groups Wave data come the technology of reproducing waveform
JP4274152B2 (en) Music synthesizer
WO2008065730A1 (en) Audio processing device and audio processing method
WO2017057530A1 (en) Audio processing device and audio processing method
JP2015012592A (en) Mixing management device
JP6114492B2 (en) Data processing apparatus and program
JP2014035436A (en) Voice processing device
JP2022191521A (en) Recording and reproducing apparatus, control method and control program for recording and reproducing apparatus, and electronic musical instrument
JP6657866B2 (en) Sound effect imparting device and sound effect imparting program
JP6474292B2 (en) Karaoke equipment
JP5742472B2 (en) Data retrieval apparatus and program
WO2023062865A1 (en) Information processing apparatus, method, and program
JP6390094B2 (en) Acoustic signal analysis control program and acoustic signal analysis control apparatus
JP2005037848A (en) Musical sound generator and its program
JP6810773B2 (en) Playback device, playback method, and program
WO2022249586A1 (en) Information processing device, information processing method, information processing program, and information processing system
JP2009204907A (en) Synchronous reproducing device, music piece automatic remix system, synchronous reproducing method and synchronous reproducing program
JP6323216B2 (en) Parameter receiving apparatus, method and program
JP2003141859A (en) Image and audio reproducing system, program and recording medium
JP6003861B2 (en) Acoustic data creation device, program
JP2000163068A (en) Waveform data processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160419

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160427

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170317

R150 Certificate of patent or registration of utility model

Ref document number: 6114492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150