JP2013007988A - Data processing device and program - Google Patents
Data processing device and program Download PDFInfo
- Publication number
- JP2013007988A JP2013007988A JP2011242607A JP2011242607A JP2013007988A JP 2013007988 A JP2013007988 A JP 2013007988A JP 2011242607 A JP2011242607 A JP 2011242607A JP 2011242607 A JP2011242607 A JP 2011242607A JP 2013007988 A JP2013007988 A JP 2013007988A
- Authority
- JP
- Japan
- Prior art keywords
- data
- sound
- waveform signal
- unit
- sound material
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、楽音波形信号から音素材を抽出する技術に関する。 The present invention relates to a technique for extracting sound material from a musical sound waveform signal.
断片的な音素材をデータベースに記憶し、この音素材を組み合わせて楽音を発生させる技術がある。楽音を発生させるときに用いる音素材は、データベースに登録された多数の音素材から選択することになる。特許文献1には、このデータベースに登録する音素材を、楽曲の楽音波形信号から予め決められたアルゴリズムにしたがって抽出することが開示されている。 There is a technology for storing pieces of sound material in a database and generating musical sounds by combining these sound materials. The sound material used when generating a musical sound is selected from a large number of sound materials registered in the database. Patent Document 1 discloses that a sound material to be registered in this database is extracted from a musical sound waveform signal of music according to a predetermined algorithm.
特許文献1に開示された技術によれば、楽曲の楽音波形信号から音素材を抽出し、その音素材の特徴に応じて分類することができるため、音素材のデータベースへの登録が容易になる。音素材のデータベースへの登録が用意になったことにより、より多くの様々な特徴をもつ音素材をデータベースに登録しようと考えることがある。この場合には、同じような音素材ばかりが登録されないように、様々な楽曲の楽音波形信号を用意する必要があった。 According to the technique disclosed in Patent Document 1, since sound material can be extracted from musical tone waveform signals of music and classified according to the characteristics of the sound material, it is easy to register the sound material in the database. . With the preparation of the sound material in the database, we may want to register more sound materials with various features in the database. In this case, it is necessary to prepare musical sound waveform signals of various musical pieces so that only similar sound materials are not registered.
本発明は、上述の事情に鑑みてなされたものであり、一の楽音波形信号に基づいて様々な特徴をもつ音素材を抽出することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to extract sound materials having various characteristics based on one musical sound waveform signal.
上述の課題を解決するため、本発明は、発音内容を示す発音データ、および当該発音内容を変化させるための加工データを取得して、当該発音データに対して当該加工データに基づく加工をする加工手段と、前記加工をされた発音データの発音内容を示す楽音波形信号を解析して、予め決められた特徴を有する楽音波形信号の期間を特定する特定手段と、前記特定された期間の楽音波形信号を解析して特徴量を算出する算出手段と、前記特定された期間の楽音波形信号を示す特定データと前記算出された特徴量を示す特徴量データとを出力するデータ出力手段とを具備することを特徴とするデータ処理装置を提供する。 In order to solve the above-described problems, the present invention acquires pronunciation data indicating the pronunciation content and processing data for changing the pronunciation content, and performs processing based on the processing data for the pronunciation data Means for analyzing a musical sound waveform signal indicating the sound content of the processed sound data, specifying a period of the musical sound waveform signal having a predetermined characteristic, and a musical sound waveform for the specified period A calculation unit that analyzes the signal to calculate a feature value; and a data output unit that outputs specific data indicating the tone waveform signal of the specified period and feature value data indicating the calculated feature value. A data processing apparatus is provided.
また、別の好ましい態様において、前記加工データは、前記楽音波形信号に付与する音響効果の内容を規定する設定データを含み、前記加工手段は、前記設定データに基づいて、前記取得した発音データに係る前記楽音波形信号に音響効果を付与するように前記加工をすることを特徴とする。 In another preferred embodiment, the processed data includes setting data that defines a content of an acoustic effect to be imparted to the musical sound waveform signal, and the processing means adds the acquired pronunciation data to the acquired pronunciation data based on the setting data. The processing is performed so as to give an acoustic effect to the musical sound waveform signal.
また、別の好ましい態様において、前記加工データは、発音内容を規定する発音データを含み、前記加工手段は、前記取得した発音データに係る楽音波形信号に対して、前記加工データに含まれる発音データに係る楽音波形信号を合成することにより前記加工をすることを特徴とする。 In another preferred embodiment, the processed data includes pronunciation data that defines the content of the pronunciation, and the processing means generates pronunciation data included in the processed data with respect to a musical sound waveform signal related to the acquired pronunciation data. The processing is performed by synthesizing the musical sound waveform signal according to the above.
また、別の好ましい態様において、前記特定データは、前記加工をされた発音データに係る楽音波形信号と当該楽音波形信号の前記特定された期間を示す時刻情報とにより、前記特定された期間の楽音波形信号を示し、前記特定手段が複数の期間を特定した場合には、前記特定データは、前記加工をされた発音データに係る楽音波形信号と当該楽音波形信号の前記特定された複数の期間を示す時刻情報とにより、前記特定された複数の期間の楽音波形信号を示し、前記算出手段は、前記特定された期間毎に前記特徴量を算出することを特徴とする。 In another preferred embodiment, the specific data is a musical tone of the specified period based on a musical sound waveform signal related to the processed sound generation data and time information indicating the specified period of the musical sound waveform signal. In the case where a waveform signal is shown and the specifying means specifies a plurality of periods, the specifying data includes a musical sound waveform signal related to the processed sound generation data and the specified plurality of periods of the musical sound waveform signal. The musical sound waveform signal of the plurality of specified periods is indicated by the time information shown, and the calculation means calculates the feature amount for each of the specified periods.
また、別の好ましい態様において、前記特定データは、前記特定された期間の楽音波形信号を抽出した楽音波形信号を示すことを特徴とする。 Moreover, in another preferable aspect, the specific data indicates a musical sound waveform signal obtained by extracting a musical sound waveform signal of the specified period.
また、本発明は、コンピュータを、発音内容を示す発音データ、および当該発音内容を変化させるための加工データを取得して、当該発音データに対して当該加工データに基づく加工をする加工手段と、前記加工をされた発音データの発音内容を示す楽音波形信号を解析して、予め決められた特徴を有する楽音波形信号の期間を特定する特定手段と、前記特定された期間の楽音波形信号を解析して特徴量を算出する算出手段と、前記特定された期間の楽音波形信号を示す特定データと前記算出された特徴量を示す特徴量データとを出力するデータ出力手段として機能させるためのプログラムを提供する。 Further, the present invention provides a computer with processing means for acquiring pronunciation data indicating the pronunciation content and processing data for changing the pronunciation content, and processing the pronunciation data based on the processing data; Analyzing the musical sound waveform signal indicating the sound content of the processed sound data, identifying means for identifying the period of the musical sound waveform signal having a predetermined characteristic, and analyzing the musical sound waveform signal of the specified period A program for functioning as a data output means for outputting a calculation means for calculating the feature quantity, and specific data indicating the musical sound waveform signal of the specified period and feature quantity data indicating the calculated feature quantity provide.
本発明によれば、一の楽音波形信号に基づいて様々な特徴をもつ音素材を抽出することができる。 According to the present invention, a sound material having various characteristics can be extracted based on one musical sound waveform signal.
<実施形態>
[概要]
本発明の実施形態における楽音処理装置は、パーソナルコンピュータ、携帯電話、PDA(Personal Digital Assistant)、タブレット端末などの情報処理装置であり、OS(Operating System)上で特定のアプリケーションプログラムを実行することにより、DAW(Digital Audio Workstation)と呼ばれる機能が実現される装置である。この楽音処理装置において実現されるDAWにおいては、楽音波形信号の一部として抽出される音素材を用いて楽音を発生させるための制御を行う機能も実現される。また、楽音波形信号から音素材を抽出する機能など、以下に説明する各機能も実現される。DAWを実現するアプリケーションプログラムの実行中においてサブルーチンのプログラムが実行されることにより、これらの各機能が実現される。
<Embodiment>
[Overview]
The musical tone processing apparatus according to the embodiment of the present invention is an information processing apparatus such as a personal computer, a mobile phone, a PDA (Personal Digital Assistant), and a tablet terminal, and executes a specific application program on an OS (Operating System). , A device that realizes a function called DAW (Digital Audio Workstation). In the DAW realized in this musical tone processing apparatus, a function of performing control for generating musical tone using a sound material extracted as a part of a musical tone waveform signal is also realized. Moreover, each function demonstrated below, such as the function to extract a sound material from a musical sound waveform signal, is also realized. Each of these functions is realized by executing a subroutine program during the execution of the application program for realizing the DAW.
[楽音処理装置10の構成]
図1は、本発明の実施形態における楽音処理装置10の構成を説明するブロック図である。楽音処理装置10は、制御部11、操作部12、表示部13、インターフェイス14、記憶部15、および音響処理部16を有する。これらの各構成はバスを介して接続されている。また、楽音処理装置10は、音響処理部16に接続されたスピーカ161およびマイクロフォン162を有する。
[Configuration of Music Processing Device 10]
FIG. 1 is a block diagram illustrating the configuration of a musical
制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)などを有する。制御部11は、ROMまたは記憶部15に記憶された各種プログラムを実行することにより、各種機能を実現する。この例においては、制御部11によるプログラムの実行には、DAWを実現するアプリケーションプログラムの実行、上述のサブルーチンのプログラムの実行が含まれる。サブルーチンのプログラムとしては、記憶部15に記憶された再生プログラム、抽出プログラム、および修正プログラムが含まれる。
The
再生プログラムは、DAWにおいて楽音の発音内容を規定するシーケンスデータを再生し、楽音を発音させる処理を行う再生機能を実現するためのプログラムである。抽出プログラムは、再生機能により合成される楽音波形信号から音素材を抽出する音素材抽出機能を実現するためのプログラムである。修正プログラムは、抽出された音素材のデータに修正を加える修正機能を実現するためのプログラムである。これらの機能の詳細については、後述する各機能の構成の説明において述べる。 The reproduction program is a program for realizing a reproduction function that reproduces sequence data that defines the sound content of a musical sound in the DAW, and performs a process of generating the musical sound. The extraction program is a program for realizing a sound material extraction function for extracting a sound material from a musical sound waveform signal synthesized by a reproduction function. The correction program is a program for realizing a correction function for correcting the extracted sound material data. Details of these functions will be described in the description of the configuration of each function described later.
操作部12はユーザによる操作を受け付ける操作ボタン、キーボード、マウス、タッチパネルなどの操作手段を有し、それぞれに受け付けられた操作の内容を示す操作データを制御部11に出力する。これにより、ユーザからの指示が楽音処理装置10に入力される。
表示部13は、液晶ディスプレイなどの表示デバイスであり、制御部11の制御に応じた内容の表示を表示画面131に行う。表示画面131に表示される内容は、メニュー画面、設定画面などの他、実行されたプログラムによって様々な内容となる(図7、図8、図9、図10参照)。
The
The
インターフェイス14は、外部装置と接続して有線または無線により通信し、各種データの送受信をする機能を有する。また、インターフェイス14には、外部装置からオーディオデータが入力されるAUX(Auxiliary)端子も設けられている。インターフェイス14は、外部装置から入力された各種データを制御部11に出力する一方、制御部11からの制御により、外部装置へ各種データを出力する。なお、AUX端子にアナログ信号が入力される場合には、A/D変換(アナログデジタル変換)が施される。
The
マイクロフォン162は、入力された音の内容を示す楽音波形信号を音響処理部16に出力する。
音響処理部16は、DSP(Digital Signal Processor)などの信号処理回路などを有する。この例においては、音響処理部16は、マイクロフォン162から入力される楽音波形信号をA/D変換し、オーディオデータとして制御部11に出力する。また、音響処理部16は、制御部11から出力されたオーディオデータを、制御部11によって設定された音響処理、D/A変換(デジタルアナログ変換)処理、増幅処理などの信号処理などを施して、楽音波形信号としてスピーカ161に出力する。
スピーカ161は、音響処理部16から入力された楽音波形信号が示す音を出力する。
The
The
The
記憶部15は、ハードディスク、フラッシュメモリなどの不揮発性メモリであって、上記の各種プログラムを記憶する記憶領域を有する。また、記憶部15は、各種プログラムが実行されているときに用いられるシーケンスデータ、音素材データベース(以下、音素材DBと記す)、波形データベース(以下、波形DBと記す)をそれぞれ記憶する記憶領域を有する。
The
波形DBは、楽音波形信号を示す波形データW1、W2、・・・が登録されている。これらの波形データが示す楽音波形信号は、楽曲、特定の楽器音、音素材など様々な内容のいずれかであり、その長さについても1秒未満から数分以上まで様々である。また、ループして用いられるものも存在してもよい。ループして用いられる波形データであっても、その一部の区間を用いてループしない波形データとして用いてもよい。なお、この例における波形データについては、複数チャンネル(例えばLch、Rch)のデータが含まれている。以下の説明においては、楽音波形信号を示す波形データ、オーディオデータなどの各データは、Lch、Rchの2chにより構成されているものとするが、より多くのチャンネル数で構成されていてもよいし、モノラル(1ch)で構成されていてもよい。 In the waveform DB, waveform data W1, W2,... Indicating musical tone waveform signals are registered. The musical sound waveform signals indicated by these waveform data are any of various contents such as music, specific instrument sounds, sound materials, etc., and their lengths vary from less than one second to several minutes or more. There may also be one used in a loop. Even waveform data used in a loop may be used as waveform data that does not loop using a part of the section. Note that the waveform data in this example includes data of a plurality of channels (for example, Lch and Rch). In the following description, each data such as waveform data indicating a musical sound waveform signal and audio data is composed of two channels of Lch and Rch, but may be composed of a larger number of channels. , May be composed of monaural (1ch).
図2は、本発明の実施形態における音素材DBの例を説明する図である。音素材DBは、音素材の内容を特定する情報が登録されている。図2に示すように、音素材の内容を特定する情報は、音素材の楽音波形信号の内容を特定する特定データ、音素材の楽音波形信号の特徴を示す特徴量データ、この楽音波形信号の特徴により分類されるカテゴリを含む。 FIG. 2 is a diagram illustrating an example of the sound material DB in the embodiment of the present invention. In the sound material DB, information for specifying the contents of the sound material is registered. As shown in FIG. 2, the information for specifying the content of the sound material includes specific data for specifying the content of the sound waveform signal of the sound material, feature data indicating the characteristics of the sound waveform signal of the sound material, Includes categories categorized by features.
特定データは、波形DBに登録された波形データのいずれかを指定する波形指定情報と、その波形データにおけるデータ範囲を時刻で指定する時刻指定情報との組み合わせにより構成されている。この例においては、時刻指定情報によって指定される時刻は、波形データのデータ先頭からの時刻として決められている。ここで、波形指定情報が示す波形データがループして用いられるものである場合には、データ範囲における開始位置の時刻が、終了位置の時刻より後の時刻として示されていてもよい。この場合には、音素材の内容は、開始位置からデータ最後までの区間の楽音波形信号に続いて、データ先頭から終了位置までの区間の楽音波形信号を接続したものとなる。特定データによって特定される音素材については、それぞれを特定するための識別子(この例においては、sn1、sn2、・・・)が付されている。以下、特定の音素材を示す場合には、音素材sn1というように記す。
なお、特定データのうち時刻指定情報が規定されていないものについては、波形指定情報が示す波形データそのものが音素材の楽音の内容を表している。例えば、音素材sn4が示す楽音ついては、波形データW5が示す楽音波形信号全体で表される。
The specific data is composed of a combination of waveform designation information for designating one of the waveform data registered in the waveform DB and time designation information for designating a data range in the waveform data by time. In this example, the time designated by the time designation information is determined as the time from the beginning of the waveform data. Here, when the waveform data indicated by the waveform designation information is used in a loop, the time at the start position in the data range may be indicated as a time after the time at the end position. In this case, the content of the sound material is obtained by connecting the musical sound waveform signal of the section from the start position to the end position after the musical sound waveform signal of the section from the start position to the end of the data. About the sound material specified by specific data, the identifier (in this example, sn1, sn2, ...) for specifying each is attached | subjected. Hereinafter, when a specific sound material is indicated, it is referred to as a sound material sn1.
For specific data for which time designation information is not defined, the waveform data itself indicated by the waveform designation information represents the content of the musical sound of the sound material. For example, the musical sound indicated by the sound material sn4 is represented by the entire musical sound waveform signal indicated by the waveform data W5.
図3は、本発明の実施形態における特定データにより表される音素材の内容を説明する図である。図3(a)は、音素材sn1、sn2、sn3が示す楽音の楽音波形信号を説明する図であり、図3(b)は、音素材sn4が示す楽音の楽音波形信号を説明する図である。図2に示すように、音素材sn1の内容は、波形指定情報が波形データW1であり、時刻指定情報がts1〜te1として特定されている。したがって、音素材sn1に対応する楽音波形信号は、図3(a)に示すように、波形データW1が示す楽音波形信号のうち、時刻ts1〜te1の楽音波形信号となる。同様に、音素材sn2、sn3にそれぞれ対応する楽音波形信号についても、波形データW1が示す楽音波形信号の一部の範囲として特定される。一方、図3(b)に示すように、音素材sn4が示す楽音波形信号については、時刻指定情報が規定されていないため、波形データW5が示す楽音波形信号全体として特定される。以下、音素材sn1、sn2、・・・が示す楽音波形信号を表すデータを、音素材データsn1、sn2、・・・として記す。 FIG. 3 is a diagram for explaining the contents of the sound material represented by the specific data in the embodiment of the present invention. FIG. 3A is a diagram for explaining musical tone waveform signals of musical sounds indicated by the sound materials sn1, sn2, and sn3, and FIG. 3B is a diagram for explaining musical tone waveform signals of musical sounds indicated by the sound material sn4. is there. As shown in FIG. 2, the content of the sound material sn <b> 1 is specified such that the waveform designation information is the waveform data W <b> 1 and the time designation information is ts <b> 1 to te <b> 1. Therefore, as shown in FIG. 3A, the musical sound waveform signal corresponding to the sound material sn1 is a musical sound waveform signal at times ts1 to te1 among the musical sound waveform signals indicated by the waveform data W1. Similarly, the musical sound waveform signals respectively corresponding to the sound materials sn2 and sn3 are specified as a partial range of the musical sound waveform signal indicated by the waveform data W1. On the other hand, as shown in FIG. 3B, the musical sound waveform signal indicated by the sound material sn4 is specified as the whole musical sound waveform signal indicated by the waveform data W5 because the time designation information is not defined. Hereinafter, data representing musical sound waveform signals indicated by the sound materials sn1, sn2,... Are described as sound material data sn1, sn2,.
図2に戻って説明を続ける。特徴量データは、各音素材の楽音波形信号がもつ複数種類の特徴量p1、p2、・・・を示す。例えば、音素材について、周波数別(高域、中域、低域)のそれぞれの強度、振幅のピークとなる時刻(音素材データの先頭を基準とした時刻)、振幅のピーク強度、協和度、複雑さなどについての特徴量であり、音素材データを解析して得られた値である。例えば、特徴量p1は、その値により音素材の高域の強度を示す。以下、特徴量データは、その特徴量p1、p2、・・・のそれぞれの値の組み合わせによってPa、Pb、・・・というように示す。例えば、音素材sn3については、特徴量データは各特徴量の組み合わせから決められたPcとして示す。 Returning to FIG. 2, the description will be continued. The feature amount data indicates a plurality of types of feature amounts p1, p2,... Possessed by the tone waveform signal of each sound material. For example, for sound material, the intensity of each frequency (high range, mid range, low range), time of peak amplitude (time relative to the beginning of the sound material data), peak amplitude of amplitude, degree of cooperation, It is a feature quantity for complexity and the like, and is a value obtained by analyzing sound material data. For example, the feature quantity p1 indicates the intensity of the high frequency range of the sound material by its value. Hereinafter, the feature amount data is indicated as Pa, Pb,... By a combination of values of the feature amounts p1, p2,. For example, for the sound material sn3, the feature amount data is indicated as Pc determined from the combination of the feature amounts.
音素材の特徴、すなわち特徴量データの内容により分類されるカテゴリは、聴感上の特徴が似た音素材毎に分類されたものであり、例えば、アタックが明瞭でエッジ感が強い音として分類されるカテゴリ「分類A(例えば、エッジ音)」、ノイズのように聞こえる音として分類されるカテゴリ「分類B(例えば、テクスチャ音)」などである。
この特徴量、カテゴリについては、例えば、ユーザが、後述する音素材トラックにおいて用いられる音素材を決めるときに、所望の音素材を音素材DBから検索するときに用いられる。例えば、ユーザが特徴量データを入力することにより、制御部11が特徴量データに類似する音素材を検索し、ユーザに提示したり、ユーザがカテゴリを選択することにより、制御部11は、そのカテゴリに分類された音素材をユーザに提示したりすればよい。また、ユーザが特定の音素材を指定した場合に、制御部11が、その音素材に特徴量データが類似する音素材を検索し、ユーザに提示するようにしてもよい。
The categories classified by the characteristics of the sound material, that is, the content of the feature data, are classified for each sound material having similar auditory characteristics. For example, the sound is classified as a sound with a clear attack and a strong edge. Category “classification A (for example, edge sound)”, category “classification B (for example, texture sound)” classified as sound that sounds like noise, and the like.
The feature amount and category are used, for example, when a user searches a sound material DB for a desired sound material when determining a sound material to be used in a sound material track described later. For example, when the user inputs feature amount data, the
シーケンスデータは、時系列に発音内容を規定する複数のトラックを有している。各トラックは、この例においては、オーディオトラック、MIDI(Musical Instrument Digital Interface)トラック、音素材トラックのうち、いずれかの種類のトラックが割り当てられている。この各トラックは、本発明の発音データの一態様である。 The sequence data has a plurality of tracks that define pronunciation contents in time series. In this example, each type of track is assigned to any one of an audio track, a MIDI (Musical Instrument Digital Interface) track, and a sound material track. Each of these tracks is an aspect of the pronunciation data of the present invention.
MIDIトラックは、ノートオン、ノートオフ、ノートナンバ、ベロシティなどのMIDIイベントと、これらのイベントの処理タイミング(例えば、トラックのデータ開始からの小節数、拍数、ティック数などにより表される)との関係を規定するトラックである。このように、MIDIトラックは、この例においては、一般的に用いられるMIDI形式で規定されているものとするが、イベントに応じた発音内容の楽音波形信号を生成する音源などを制御するための情報が規定されたトラックであれば、他の形式によって規定されていてもよい。 MIDI tracks are MIDI events such as note-on, note-off, note number, and velocity, and the processing timing of these events (for example, expressed by the number of bars, beats, ticks, etc. from the start of the track data) It is a track that defines the relationship. As described above, in this example, the MIDI track is defined in a commonly used MIDI format. However, the MIDI track is used to control a sound source that generates a musical sound waveform signal having a pronunciation content corresponding to an event. As long as the information track is defined, it may be defined in another format.
オーディオトラックは、オーディオデータとそのデータの再生開始タイミングが規定されたトラックである。オーディオデータとしては、波形DBに記憶された波形データであってもよいし、別途入力された楽音波形信号を示すデータであってもよい。また、再生開始タイミングは、上記の処理タイミングと同様に、トラックのデータ開始からの小節数、拍数、ティック数により表される。なお、オーディオデータの再生音量を示す情報など他の情報が含まれていてもよい。 The audio track is a track in which audio data and playback start timing of the data are defined. The audio data may be waveform data stored in the waveform DB, or may be data indicating a musical sound waveform signal input separately. The reproduction start timing is represented by the number of bars, the number of beats, and the number of ticks from the start of the track data, similarly to the above processing timing. Other information such as information indicating the playback volume of the audio data may be included.
図4は、本発明の実施形態における音素材トラックの例を説明する図である。図4に示すように、音素材トラックは、音素材データとそのデータの再生開始タイミングが規定されたトラックである。音素材データは、音素材DBにおいて各音素材の識別子により特定される。また、再生開始タイミングは、上記の処理タイミングと同様に、トラックのデータ開始からの小節数、拍数、ティック数により表される。この例においては、音素材データを再生するときの音量、時間(この例においてはティック数で表される)についても規定されているが、音量、時間については規定されていなくてもよい。
規定される時間は、音素材データのデータ先頭からの時間(規定される時間より短い音素材データについてはループ再生してもよい)として決められたものであってもよいし、タイムストレッチ処理によりこの時間に伸縮するように決められたものであってもよい。時間が規定されていない場合には、音素材データをデータ開始から最後まで再生するようにすればよい。
図4の例に示す場合には、例えば、再生開始タイミング「0002:01:000」(第2小節第1拍に対応)においては、対応する音素材データSn3を再生するように決められている。
FIG. 4 is a diagram illustrating an example of a sound material track in the embodiment of the present invention. As shown in FIG. 4, the sound material track is a track in which the sound material data and the reproduction start timing of the data are defined. The sound material data is specified by the identifier of each sound material in the sound material DB. The reproduction start timing is represented by the number of bars, the number of beats, and the number of ticks from the start of the track data, similarly to the above processing timing. In this example, the volume and time (represented by the number of ticks in this example) when reproducing the sound material data are also defined, but the volume and time may not be defined.
The specified time may be determined as the time from the beginning of the sound material data (the sound material data shorter than the specified time may be loop-played), or by time stretch processing It may be determined to expand and contract at this time. If the time is not specified, the sound material data may be reproduced from the start to the end of the data.
In the example shown in FIG. 4, for example, at the reproduction start timing “0002: 01: 000” (corresponding to the first beat of the second measure), it is determined to reproduce the corresponding sound material data Sn3. .
図1に戻って説明を続ける。シーケンスデータは、上記トラックの他、各トラックの再生速度を指定するテンポ(1拍の時間を示す値)、各トラックに対して施す音響処理の内容、各トラックから得られる楽音波形信号の合成態様、楽音波形信号を合成した後の音響処理などの各信号処理の内容を規定する設定データを有している。楽音波形信号の合成態様としては、各トラックに基づく楽音波形信号が合成(ミキシング)されて音響処理部16に出力されるまでの、各楽音波形信号の信号経路の態様、楽音波形信号を合成するときの信号レベルの割合(トラック間、チャンネル間(Lch,Rch))などである。
このシーケンスデータにおける各トラックの内容、設定データの内容は、ユーザによって作成されてもよいし、インターフェイス14を介して取得するようにしてもよい。
以上が、楽音処理装置10のハードウエア構成についての説明である。
Returning to FIG. 1, the description will be continued. In addition to the above tracks, the sequence data includes a tempo (a value indicating the time of one beat) that specifies the playback speed of each track, the contents of the acoustic processing applied to each track, and a synthesis mode of musical sound waveform signals obtained from each track And setting data for defining the contents of each signal processing such as acoustic processing after the musical sound waveform signal is synthesized. As a synthesis form of the musical sound waveform signals, a musical sound waveform signal based on each track until a musical sound waveform signal based on each track is synthesized (mixed) and output to the
The contents of each track and the contents of the setting data in the sequence data may be created by the user or may be acquired via the
The above is the description of the hardware configuration of the musical
[再生機能構成]
次に、楽音処理装置10の制御部11が再生プログラムを実行することによって実現される再生機能について説明する。なお、以下に説明する再生機能を実現する各構成の一部または全部については、ハードウエアによって実現してもよい。
[Playback function configuration]
Next, a reproduction function realized by the
図5は、本発明の実施形態における再生機能の構成を説明するブロック図である。制御部11が再生プログラムを実行すると、データ読出部110−1、110−2、・・・(以下、それぞれを区別しない場合には、データ読出部110という)、音源部120、音素材データ合成部130、音響効果付与部140−1、140−2、・・・(以下、それぞれを区別しない場合には、音響効果付与部140という)、オーディオデータ合成部150、合成音響効果付与部160、チャンネル変換部170、およびバス部180を有する再生機能部100が構成され、再生機能が実現される。
FIG. 5 is a block diagram illustrating the configuration of the playback function in the embodiment of the present invention. When the
データ読出部110−1は、設定データにより規定されたテンポ、およびオーディオトラックに規定されたタイミングにより決まる再生開始タイミングからオーディオデータを読み出して、音響効果付与部140−1に出力する。オーディオデータの各部(例えばサンプル単位)を読み出す速度についてもテンポに応じて変化させてもよい。この場合には、タイムストレッチ処理によりオーディオデータの示す楽音波形信号のピッチが変わらないようにする。音響効果付与部140−1は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。
The data reading unit 110-1 reads audio data from the reproduction start timing determined by the tempo specified by the setting data and the timing specified by the audio track, and outputs the audio data to the sound effect applying unit 140-1. The speed at which each part (for example, sample unit) of audio data is read may be changed according to the tempo. In this case, the pitch of the musical sound waveform signal indicated by the audio data is not changed by the time stretch process. The audio effect applying unit 140-1 performs signal processing on the musical sound waveform signal indicated by the input audio data so as to apply the sound effect having the content defined by the setting data, and the audio data subjected to the signal processing. Are output to the audio
オーディオトラックからオーディオデータ合成部150に至る信号ラインには、データ読出部110−1によって読み出されて出力されたオーディオデータを取り出すための信号ラインである分岐S1、音響効果付与部140−1によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S5が設けられている。
なお、オーディオトラックは、1つのトラックにつき、データ読出部110−1および音響効果付与部140−1の組を有している。したがって、オーディオトラックが複数存在する場合には、データ読出部110−1および音響効果付与部140−1の組がオーディオトラックの数だけ設けられる。分岐S1、S5についてもトラック毎に設けられる。
The signal line from the audio track to the audio
Note that the audio track has a set of a data reading unit 110-1 and a sound effect applying unit 140-1 for each track. Therefore, when there are a plurality of audio tracks, a set of the data reading unit 110-1 and the sound effect applying unit 140-1 is provided by the number of audio tracks. The branches S1 and S5 are also provided for each track.
データ読出部110−2は、設定データにより規定されたテンポ、およびMIDIトラックに規定されたタイミングにより決まる処理タイミングでイベントを読み出して音源部120に出力する。音源部120は、入力されるMIDIイベントに応じた発音内容の楽音波形信号を示すオーディオデータを生成するソフトウエア音源である。音源部120は、データ読出部110−2から入力されたMIDIイベントに応じて生成したオーディオデータを音響効果付与部140−2に出力する。なお、音源部120は、外部装置として設けられていてもよく、この場合には、データ読出部110−2は、インターフェイス14を介して外部装置にMIDIイベントを出力し、音響効果付与部140−2は、外部装置において生成されたオーディオデータを、インターフェイス14を介して取得してもよい。
The data reading unit 110-2 reads the event at a processing timing determined by the tempo specified by the setting data and the timing specified by the MIDI track, and outputs the event to the
音響効果付与部140−2は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。
The audio effect applying unit 140-2 performs signal processing on the musical sound waveform signal indicated by the input audio data so as to give the sound effect having the content defined by the setting data, and the audio data subjected to the signal processing. Are output to the audio
MIDIトラックからオーディオデータ合成部150に至る信号ラインには、音源部120から出力されたオーディオデータを取り出すための信号ラインである分岐S2、音響効果付与部140−2によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S6が設けられている。
なお、MIDIトラックは、1つのトラックにつき、データ読出部110−2、音源部120および音響効果付与部140−2の組を有している。したがって、MIDIトラックが複数存在する場合には、データ読出部110−2、音源部120および音響効果付与部140−2の組がMIDIトラックの数だけ設けられる。分岐S2、S6についてもトラック毎に設けられる。なお、音源部120は、トラック毎に入力を受け付けて、トラック毎にオーディオデータを出力する構成であれば、複数存在しなくてもよい。
The signal line from the MIDI track to the audio
The MIDI track has a set of a data reading unit 110-2, a
データ読出部110−3は、設定データにより規定されたテンポ、および音素材トラックに規定されたタイミングにより決まる再生開始タイミングで、対応する音素材データを読み出して音素材データ合成部130に出力する。音素材データ合成部130は、データ読出部110−3から入力される音素材データが示す楽音波形信号を、入力されたタイミングに応じて時系列に合成して、オーディオデータとして音響効果付与部140−3に出力する。 The data reading unit 110-3 reads out the corresponding sound material data at the reproduction start timing determined by the tempo specified by the setting data and the timing specified by the sound material track, and outputs it to the sound material data synthesizing unit 130. The sound material data synthesizing unit 130 synthesizes the musical sound waveform signal indicated by the sound material data input from the data reading unit 110-3 in time series according to the input timing, and the sound effect applying unit 140 as audio data. To -3.
ここで、2つの音素材データが順に入力されるとき、先の音素材データの再生途中において後の音素材データが入力される場合には、先の音素材データが示す楽音波形信号の最後の部分と、後の音素材データが示す楽音波形信号の最初の部分が、同期間に重複する場合がある。このような期間においては、それぞれの楽音波形信号を合成した内容を示すオーディオデータが音素材データ合成部130から出力されることになる。
音響効果付与部140−3は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。
Here, when two pieces of sound material data are input in order, if the subsequent sound material data is input during the reproduction of the previous sound material data, the last sound waveform signal indicated by the previous sound material data is input. There are cases where the portion and the first portion of the musical sound waveform signal indicated by the subsequent sound material data overlap during the same period. In such a period, audio data indicating the synthesized contents of the respective musical sound waveform signals is output from the sound material data synthesis unit 130.
The sound effect applying unit 140-3 performs signal processing on the musical sound waveform signal indicated by the input audio data so as to give the sound effect having the content defined by the setting data, and the audio data subjected to the signal processing. Are output to the audio
音素材トラックからオーディオデータ合成部150に至る信号ラインには、音素材データ合成部130から出力されたオーディオデータを取り出すための信号ラインである分岐S3、音響効果付与部140−3によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S7が設けられている。
なお、音素材トラックは、1つのトラックにつき、データ読出部110−3、音素材データ合成部130および音響効果付与部140−3の組を有している。したがって、音素材トラックが複数存在する場合には、データ読出部110−3、音素材データ合成部130および音響効果付与部140−3の組が音素材トラックの数だけ設けられる。分岐S3、S6についてもトラック毎に設けられる。
The signal line from the sound material track to the audio
Note that the sound material track has a set of a data reading unit 110-3, a sound material data synthesizing unit 130, and an acoustic effect applying unit 140-3 for each track. Therefore, when there are a plurality of sound material tracks, a set of the data reading unit 110-3, the sound material data synthesizing unit 130, and the sound effect applying unit 140-3 is provided by the number of sound material tracks. Branches S3 and S6 are also provided for each track.
インターフェイス14のAUX端子に入力されたオーディオデータは、音響効果付与部140−4に出力される。このオーディオデータは、時系列にAUX端子から入力されるものであるため、上記のデータ読出部に相当する構成については存在しない。音響効果付与部140−4は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。
The audio data input to the AUX terminal of the
AUX端子からオーディオデータ合成部150に至る信号ラインには、AUX端子に入力されたオーディオデータを取り出すための信号ラインである分岐S4、音響効果付与部140−4によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S8が設けられている。
なお、インターフェイス14に複数のAUX端子がある場合には、音響効果付与部140−4が、各AUX端子に対応して設けられる。分岐S4についてもトラック毎に設けられる。
In the signal line from the AUX terminal to the audio
In addition, when there are a plurality of AUX terminals in the
バス部180は、音響効果付与部140−1、140−2、140−3、140−4に入力されるオーディオデータ(B1、B2、B3、B4において分岐)を取り出して、合成して音響効果付与部140−5に出力する。合成するときの各オーディオデータの信号レベルについては、設定データに基づいて決められる。音響効果付与部140−5は、入力されたオーディオデータが示す楽音波形信号に、設定データにより規定された内容の音響効果を付与するように信号処理を施して、信号処理が施されたオーディオデータをオーディオデータ合成部150に出力する。
バス部180からオーディオデータ合成部150に至る信号ラインには、バス部180から出力されたオーディオデータを取り出すための信号ラインである分岐S14、音響効果付与部140−5によって音響効果が付与された楽音波形信号を示すオーディオデータを取り出すための分岐S15が設けられている。
The
The signal line from the
ここで、音響効果付与部140に入力されるオーディオデータが、本発明の発音データの一態様である。また、音響効果付与部140が、本発明の加工手段の一態様であり、付与する音響効果の内容を規定する設定データが、加工データの一態様である。すなわち、音響効果付与部140は、設定データに基づいてオーディオデータを加工する構成である。 Here, the audio data input to the acoustic effect imparting unit 140 is an aspect of the pronunciation data of the present invention. Moreover, the acoustic effect provision part 140 is an aspect of the processing means of this invention, and the setting data which prescribes | regulates the content of the acoustic effect to provide is an aspect of processing data. That is, the acoustic effect imparting unit 140 is configured to process audio data based on the setting data.
オーディオデータ合成部150は、入力された各オーディオデータを、設定データの内容に基づいて合成して出力する。具体的には、オーディオデータ合成部150は、各オーディオデータが示す楽音波形信号について、トラック間(AUX端子、バス部180からの出力も含む)の信号レベルの比、同一トラックのチャンネル間(Lch、Rch)の信号レベルの比を調整して、チャンネル毎に合成する。そして、オーディオデータ合成部150は、合成した楽音波形信号を示すオーディオデータを、合成音響効果付与部160に出力する。なお、図5においては、分岐S1〜S8、S14、S15については、LchおよびRchをまとめた信号ラインとして記載していたが、以下に説明する分岐S9〜S12については、信号ラインをLchとRchとに分けて図示している。
ここで、オーディオデータ合成部150は、本発明の加工手段の一態様であり、合成前のいずれかのオーディオデータが発音データの一態様であり、他のオーディオデータが加工データの一態様である。すなわち、オーディオデータ合成部150は、いずれかのオーディオデータを他のオーディオデータに基づいて加工する構成である。また、合成態様(加工態様)については、上述したように設定データに基づいて決められている。なお、バス部180についてもオーディオデータ合成部150と同様に、本発明の加工手段の一態様となりうる。
The audio
Here, the audio
合成音響効果付与部160は、入力されたオーディオデータに対して、設定データにより規定された内容の音響効果を付与するように信号処理を施して、チャンネル変換部170に出力する。チャンネル変換部170は、設定データにより規定されたチャンネル数に変換して音響処理部16に出力する。この例においては、Lch、Rchの楽音波形信号を合成してモノラル化したオーディオデータが出力される場合を図5に示しているが、合成せずにそのまま出力されるようにしてもよいし、よりチャンネル数を増やす処理が施されて出力されるようにしてもよい。このようにチャンネル変換部170は、設定データに基づいて、マトリクス処理などを用いてチャンネル数を増減させる機能を有するものであればよい。
ここで、合成音響効果付与部160およびチャンネル変換部170が、各々本発明の加工手段の一態様であり、付与する音響効果の内容、チャンネル数を規定する設定データが、加工データの一態様である。
The synthesized sound effect applying unit 160 performs signal processing on the input audio data so as to give the sound effect having the content defined by the setting data, and outputs the processed audio data to the channel converting unit 170. The channel conversion unit 170 converts the number of channels specified by the setting data and outputs it to the
Here, each of the synthesized sound effect applying unit 160 and the channel converting unit 170 is an aspect of the processing means of the present invention, and the setting data defining the content of the acoustic effect to be applied and the number of channels is an aspect of the processed data. is there.
オーディオデータ合成部150から音響処理部16に至る信号ラインには、オーディオデータ合成部150から出力されるオーディオデータのLchを取り出すための信号ラインである分岐S9、Rchを取り出すための信号ラインS10が設けられ、合成音響効果付与部160によって音響効果が付与されたオーディオデータのLchを取り出すための信号ラインである分岐S11、Rchを取り出すための信号ラインS12が設けられ、チャンネル変換部170によってモノラル化したオーディオデータを取り出すための信号ラインである分岐S13が設けられている。
以上が、再生機能についての説明である。
The signal line from the audio
This completes the description of the playback function.
[音素材抽出機能および修正機能]
次に、楽音処理装置10の制御部11が抽出プログラムを実行することによって実現される音素材抽出機能について説明する。また、制御部11が修正プログラムを実行することによって実現される修正機能についても併せて説明する。なお、以下に説明する音素材抽出機能および修正機能を実現する各構成の一部または全部については、ハードウエアによって実現してもよい。
[Sound material extraction function and correction function]
Next, the sound material extraction function realized by the
図6は、本発明の実施形態における音素材抽出機能および修正機能の構成を説明するブロック図である。制御部11が抽出プログラムを実行すると、選択部210、抽出部220およびデータ出力部230を有する音素材抽出機能部200が構成され、音素材抽出機能が実現される。また、制御部11が修正プログラムを実行すると、修正部300が構成され、修正機能が実現される。
FIG. 6 is a block diagram illustrating the configuration of the sound material extraction function and the correction function in the embodiment of the present invention. When the
選択部210は、分岐S1、S2、・・・S15のいずれかを選択し、選択した分岐の信号ラインにおけるオーディオデータを取得して抽出部220に出力する。いずれを選択するかについては、ユーザによっていずれかが選択されてもよいし、予め決められていてもよい。また、いずれか1つの分岐を選択するのではなく、複数の分岐を選択してもよい。その場合には、選択部210は、チャンネル毎に楽音波形信号を合成して出力すればよい。また、分岐S9、S10の組み合わせ、または分岐S11、S12の組み合わせについては、Lch、Rchの関係であるから、一体として選択されるようにしてもよい。一方、分岐S9のみの選択など、一方のチャンネルについてのみのオーディオデータが選択された場合には、選択部210は、出力するオーディオデータについて、他方のチャンネルについては無音としてもよいし、双方のチャンネルともに同じ楽音波形信号としてもよいし、モノラル化してもよい。なお、分岐S1、S2、・・・、S8、S14、S15については、LchおよびRchをまとめた信号ラインとして説明したが、選択部210は、これらの分岐から取得したオーディオデータを抽出部220に出力するときには、いずれか一方のチャンネルのみのオーディオデータとしてもよいし、モノラル化したオーディオデータとしてもよい。どのような態様でオーディオデータを出力するかについては、設定データに基づいて決められればよい。
The
抽出部220は、音素材特定部221および特徴量算出部222を有し、音素材特定部221および特徴量算出部222の処理により、入力されたオーディオデータから音素材を抽出して、その音素材の特徴量を算出する。そして、抽出部220は、オーディオデータが示す楽音波形信号のうち、抽出した音素材に対応する区間を示す情報と、算出した特徴量を示す特徴量データとをデータ出力部230に出力する。このとき、抽出に用いたオーディオデータ(抽出部200に入力されたオーディオデータ)についても出力する。
以下、音素材特定部221および特徴量算出部222の機能について説明する。
The
Hereinafter, functions of the sound
特徴量算出部222は、抽出部220に入力されたオーディオデータが示す楽音波形信号(以下、抽出元楽音波形信号という)のうち、音素材特定部221に指示された区間における特徴量を算出して、算出結果を音素材特定部221に出力する。
The feature
音素材特定部221は、抽出元楽音波形信号から、音量変化が一定以上の変化をするオンセットを検出し、オンセットから予め決められた時間の範囲のうち、様々な区間を特徴量算出部222に指示し特徴量を算出させる。音素材特定部221は、算出された各区間の特徴量のうち、予め決められた特定の条件を満たす特徴量の区間を、オーディオデータから抽出した音素材に対応する抽出元楽音波形信号における区間として特定する。音素材特定部221は、入力されたオーディオデータ全体から、音素材の抽出を行って、音素材に対応する抽出元楽音波形信号における区間を特定していく。なお、このようにオーディオデータから音素材を抽出する方法については公知の方法のいずれも用いること可能であるが、例えば、特開2010−191337号公報に開示された方法を用いればよい。
The sound
そして、音素材特定部221は、抽出した音素材毎に、それぞれ特定した区間(以下、特定区間という)を示す情報と、この区間に対応して算出された特徴量を示す特徴量データとを出力し、入力されたオーディオデータについても出力する。
Then, the sound
データ出力部230は、抽出部220から入力されたオーディオデータを記憶部15に出力し、波形データとして波形DBに登録する。また、データ出力部230は、登録した波形データを識別する波形指定情報と、特定区間をデータ範囲とした時刻指定情報とを示す特定データ、および特徴量データを記憶部15に出力し、抽出した音素材毎に音素材DBに登録する。このとき、データ出力部230は、登録した特徴量データに応じて分類されるカテゴリについても決定する。
The
また、データ出力部230は、波形DBに登録する場合には、抽出部220から入力されたオーディオデータのうち、特定区間の楽音波形信号を切り出したオーディオデータを、波形データとして波形DBに登録する場合もある。この場合には、データ出力部230が音素材DBに登録する特定データには時刻指定情報が含まれない。すなわち、特定データは、波形データ全体を音素材として特定することで、音素材の楽音波形信号を示していることになる。
In addition, when registering in the waveform DB, the
データ出力部230による上記2種類の波形DBの登録方法のいずれを適用するかについては、ユーザが予め設定すればよい。この例においては、前者の登録方法(特定区間の楽音波形信号を切り出さない場合)は「mode1」、後者の登録方法(特定区間の楽音波形信号を切り出す場合)は「mode2」として設定される。なお、この登録方法については、データ出力部230が予め決められたアルゴリズムにしたがって設定してもよい。例えば、抽出部220において抽出された音素材の数が予め決められた数以上である場合には、「mode1」として設定され、当該数未満であれば、「mode2」として設定されればよい。
The user may set in advance which of the two types of waveform DB registration methods by the
修正部300は、データ出力部230による波形DBおよび音素材DBへの登録前における音素材のデータ範囲(時刻指定情報)について、ユーザの指示に応じて修正する機能を有する。これにより抽出部220により抽出された音素材を、ユーザの要求に沿った音素材になるように調整することができる。このとき、特徴量データの内容を変更しなくてもよいし、特徴量データの内容を修正後の音素材から特徴量算出部222によって再算出させて更新してもよい。
なお、修正部300は、既に登録されている音素材のデータ範囲を修正するようにしてもよい。
以上が、音素材抽出機能および修正機能についての説明である。上記各機能構成により、楽音処理装置10において、本発明のデータ処理装置が実現される。
The
Note that the
This completes the description of the sound material extraction function and the correction function. With the above functional configurations, the data processing apparatus of the present invention is realized in the musical
[各機能の動作例]
続いて、上述した再生プログラム、抽出プログラムおよび修正プログラムが実行されたときの動作例について、表示画面131の表示例を参照しながら説明する。
まず、ユーザは、DAW上においてシーケンスデータの再生を行う場合に、再生プログラムの実行の指示を、楽音処理装置10に対して入力し、再生させるシーケンスデータの指示についても入力する。このようにすると、表示画面131には、図7に示す内容の表示がなされる。
[Operation example of each function]
Next, an operation example when the above-described reproduction program, extraction program, and correction program are executed will be described with reference to a display example on the
First, when the sequence data is reproduced on the DAW, the user inputs an instruction to execute the reproduction program to the musical
図7は、本発明の実施形態における再生プログラム実行中の表示の一例を説明する図である。表示画面131には、大きく分けてシーケンスデータの内容を示すデータ領域TA、およびユーザの指示を、ポインタptを用いて楽音処理装置10に入力するための操作画像領域BAが表示される。
FIG. 7 is a diagram for explaining an example of display during execution of the reproduction program in the embodiment of the present invention. On the
データ領域TAには、シーケンスデータの各トラックの内容を模式的に示した画像が表示され、縦軸方向にトラック、横軸方向に時刻が規定される。データ領域TAに表示される内容はシーケンスデータの一部分であって、ユーザは、縦軸用スクロールバーVBAにおける縦軸タブvsbを操作して縦軸方向の表示範囲を変更し、横軸用スクロールバーHBAにおける横軸タブhsbなどを操作して横軸方向の表示範囲を変更する。この例のシーケンスデータにおいて、トラックはtr1、tr2、・・・tr6と6トラックで構成されているものとする。ここでは、tr1、tr2がオーディオトラック(図における「audio」)、tr3、tr4がMIDIトラック(図における「midi」)、tr5、tr6が音素材トラック(図における「ms」)であるものとする。このトラック数、トラックの種類は、ユーザにより自由に設定可能である。
また、横軸方向のデータ範囲を指定するための範囲指定矢印(開始指定矢印asおよび終了指定矢印ae)が表示され、これらの矢印を移動させることにより、横軸における開始時刻tssおよび終了時刻tseを設定する。
In the data area TA, an image schematically showing the contents of each track of the sequence data is displayed, and the track is defined in the vertical axis direction and the time is defined in the horizontal axis direction. The content displayed in the data area TA is a part of sequence data. The user operates the vertical axis tab vsb in the vertical axis scroll bar VBA to change the display range in the vertical axis direction, and the horizontal axis scroll bar. The display range in the horizontal axis direction is changed by operating the horizontal axis tab hsb in the HBA. In the sequence data of this example, it is assumed that the track is composed of tr1, tr2,... Tr6 and 6 tracks. Here, tr1 and tr2 are audio tracks (“audio” in the figure), tr3 and tr4 are MIDI tracks (“midi” in the figure), and tr5 and tr6 are sound material tracks (“ms” in the figure). . The number of tracks and the type of tracks can be freely set by the user.
Further, range designation arrows (start designation arrow as and end designation arrow ae) for designating the data range in the horizontal axis direction are displayed, and by moving these arrows, the start time tss and end time tse on the horizontal axis are displayed. Set.
また、表示画面131には、再生のテンポを設定するためのテンポ制御ボタンb1、再生開始、停止、早送り、巻き戻しを指定する再生制御ボタンb2、範囲指定矢印において指定されたデータ範囲のシーケンスデータから音素材に変換する処理を開始するための変換ボタンb3、および、抽出プログラム実行時の設定を行うための設定ボタンb4が表示される。
ユーザが再生制御ボタンb2を操作して、再生の開始を指示すると、再生機能部100におけるデータ読出部110において、設定されたテンポに基づいて、各データの読み出しが開始される。これにより、再生機能部100から音響処理部16に対してオーディオデータが出力され、シーケンスデータに基づく発音内容でスピーカ161から出力される。
ユーザが設定ボタンb4を操作すると、抽出プログラムが実行され、表示画面131には、図8に示す表示がなされる。この表示は、変換において、音素材を抽出するオーディオデータを設定するための内容になっている。
The
When the user operates the playback control button b2 to instruct the start of playback, the data reading unit 110 in the
When the user operates the setting button b4, the extraction program is executed, and the display shown in FIG. This display has contents for setting audio data from which sound material is extracted in the conversion.
図8は、本発明の実施形態における抽出プログラム実行中の表示の一例(分岐位置指定表示)を説明する図である。図8に示すように、表示画面131においては、再生機能部100における各構成および信号ラインに対応した表示がなされる。トラック表示tmは、音響効果付与部140にオーディオデータを出力する構成に対応する部分をトラック毎に示している。バス表示bmは、バス部180に対応した部分を示している。音響効果付与表示etmは、音響効果付与部140に対応した部分をトラック毎に示している。合成部表示mmは、オーディオデータ合成部150に対応した部分を示している。合成音響効果付与表示emmは、合成音響効果付与部160に対応した部分を示している。mono表示cmは、チャンネル変換部170に対応した部分を示している。
FIG. 8 is a diagram illustrating an example of display during execution of the extraction program (branch position designation display) in the embodiment of the present invention. As shown in FIG. 8, on the
また、各構成の表示に対応する間の線は信号ラインに対応し、線に設けられた丸印である分岐表示bt1、bt2、・・・bt5は、分岐S1、S2、・・・S15に対応する。なお、この例において、オーディオトラックがtr1、tr2の2つのトラックから構成されているため、分岐S1、S5は、それぞれのトラックに対応して設けられている。MIDIトラック、音素材トラックについても同様である。ユーザの操作により分岐表示の部分を選択すると、表示が白丸から黒丸に変更され、その部分の信号ラインにおけるオーディオデータが音素材の抽出対象として設定される。図5に示す例においては、分岐S13に対応する部分の信号ラインにおけるオーディオデータが、音素材の抽出対象として設定された場合を示している。なお、ユーザは複数の分岐表示を選択してもよい。 Further, the lines corresponding to the display of each configuration correspond to the signal lines, and the branch indications bt1, bt2,... Bt5, which are circle marks provided on the lines, are changed to the branches S1, S2,. Correspond. In this example, since the audio track is composed of two tracks tr1 and tr2, the branches S1 and S5 are provided corresponding to the respective tracks. The same applies to the MIDI track and the sound material track. When a branch display portion is selected by a user operation, the display is changed from a white circle to a black circle, and the audio data in the signal line of that portion is set as an extraction target of the sound material. In the example shown in FIG. 5, the audio data in the signal line corresponding to the branch S13 is set as a sound material extraction target. Note that the user may select a plurality of branch displays.
また、表示画面131には、データ出力部230におけるデータベースの登録態様を設定するためのモード選択ボタンbmについても表示される。ユーザは「mode1」または「mode2」の一方を選択することにより、データ出力部230における登録態様が設定される。この例においては、「mode1」が設定されている状態を示している。
ユーザが決定ボタンb5を操作すると、これらの設定を終了し、表示画面131の表示は、図7に示す表示に戻る。
The
When the user operates the enter button b5, these settings are terminated, and the display on the
続いて、ユーザは、範囲指定矢印を操作して、抽出対象となるオーディオデータの期間を設定する。全範囲とする場合には範囲の設定は不要である。
上記設定が終了し、ユーザが変換ボタンb3を操作すると、ユーザにより設定された内容にしたがって、音素材抽出機能部200における処理が開始される。この例においては、音素材抽出機能部200において、再生機能部100に対して、範囲指定矢印により指定された期間のオーディオデータのうち、分岐S13の信号ラインにおけるオーディオデータを生成させ、選択部210で受け取る。そして、抽出部220において音素材を抽出する。抽出が終了すると、表示画面131には、図9に示すように、抽出完了表示がなされる。
Subsequently, the user operates the range designation arrow to set the period of audio data to be extracted. Setting the range is not necessary for the entire range.
When the above setting is completed and the user operates the conversion button b3, processing in the sound material
なお、選択部210においてオーディオデータを受け取るときには、再生機能部100において、そのオーディオデータを生成すればよいから、必ずしも音響処理部16に対してオーディオデータの出力はされなくてもよい。また、AUX端子からオーディオデータの入力がある場合(入力の有無はユーザによって予め設定されればよい)には、再生機能部100において、範囲指定矢印により指定された期間のオーディオデータを音響処理部16に出力し、その期間にAUX端子から入力されたオーディオデータがオーディオデータ合成部150において合成されるようにすればよい。
Note that when the
図9は、本発明の実施形態における抽出プログラム実行中の表示の一例(抽出完了表示)を説明する図である。図9に示すように、表示画面131には、選択部210で受け取ったオーディオデータが示す抽出元楽音波形信号wv、抽出した音素材の期間(特定区間)を示す表示(この図における音素材sna、snb、snc、snd)、各音素材に対応した特徴量データから分類されるカテゴリを示す表示(この図におけるアイコンica、icb、icc、icd)が表示される。また、特定区間を修正するための修正ボタンb6、抽出した音素材をデータベースに登録するための登録ボタンb7についても、表示画面131に表示される。
FIG. 9 is a diagram for explaining an example of the display during extraction program execution (extraction completion display) in the embodiment of the present invention. As shown in FIG. 9, the
ユーザは、音素材に対応する部分(例えばアイコンica、icb、icc、icd)を、ポインタptを用いて操作すると、対応する音素材の楽音波形信号が示す音が、制御部11の制御によってスピーカ161から出力されるようになっている。
ユーザがスピーカ161から出力された音を試聴して、音素材の特定区間について修正する必要がない場合など、ユーザによって登録ボタンb7が操作されると、データ出力部230は、選択部210が受け取ったオーディオデータを波形DBに登録する一方、抽出した音素材毎に特定データおよび特徴量データを音素材DBに登録する。
一方、ユーザが音素材の特定区間について修正したいと考えた場合など、ユーザによって修正ボタンb6が操作された場合には、修正プログラムが実行され、表示画面131には、図10に示す表示がなされる。
When the user operates a portion corresponding to the sound material (for example, icons ica, icb, icc, icd) using the pointer pt, the sound indicated by the musical sound waveform signal of the corresponding sound material is controlled by the
When the user operates the registration button b7 when the user listens to the sound output from the
On the other hand, when the user operates the correction button b6, such as when the user wants to correct a specific section of the sound material, the correction program is executed, and the
図10は、本発明の実施形態における修正プログラム実行中の表示の一例を説明する図である。図10に示すように、表示画面131には、最後に試聴した音素材の部分が拡大表示される。この例においては、最後に試聴した音素材は、音素材snbであったものとする。また、音素材に対応する楽音波形信号の期間(特定区間)を調整するための範囲指定矢印(開始指定矢印asおよび終了指定矢印ae)が表示される。
その他、範囲指定矢印によって指定された期間の楽音波形信号が示す音を試聴するための試聴ボタンb8、範囲指定矢印によって指定された期間の楽音波形信号を音素材に対応する楽音波形信号として確定させる確定ボタンb9が表示画面131に表示される。
FIG. 10 is a diagram for explaining an example of display during execution of the correction program in the embodiment of the present invention. As shown in FIG. 10, the portion of the sound material that was last auditioned is displayed on the
In addition, the audition button b8 for auditioning the sound indicated by the musical sound waveform signal in the period designated by the range designation arrow, and the musical sound waveform signal in the period designated by the range designation arrow are determined as the musical sound waveform signal corresponding to the sound material. A confirmation button b9 is displayed on the
ユーザは、範囲指定矢印を操作して楽音波形信号の期間を調整し、試聴ボタンb8を操作して試聴する行為を繰り返すことにより、所望の音素材になるように楽音波形信号の期間を指定する。図10においては、開始時刻tsb、終了時刻tebとして規定される期間の楽音波形信号に対応する音素材snb1が指定されたものとする。そして、ユーザは、確定ボタンb9を操作すると、抽出された音素材snbが、ユーザによって指定された音素材snb1に修正される。 The user operates the range designation arrow to adjust the period of the musical sound waveform signal, and repeats the trial listening operation by operating the audition button b8, thereby designating the period of the musical sound waveform signal so that the desired sound material is obtained. . In FIG. 10, it is assumed that the sound material snb1 corresponding to the musical sound waveform signal in the period defined as the start time tsb and the end time teb is specified. When the user operates the confirm button b9, the extracted sound material snb is corrected to the sound material snb1 designated by the user.
そして、上述したとおり、ユーザによって登録ボタンb7が操作されると、選択部210が受け取ったオーディオデータを波形DBに登録する一方、抽出した音素材毎に特定データおよび特徴量データを音素材DBに登録する。このとき、修正された音素材については、修正後の音素材に対応する特定データが音素材DBに登録される。特徴量データについては、修正前に算出された特徴量を示すものであってもよいし、修正後の音素材が示す楽音波形信号について特徴量算出部222が再計算した特徴量を示すものであってもよい。いずれにするかは、ユーザの指示に応じて決定されればよい。
このようにして音素材に対応する楽音波形信号の開始時刻をずらすことにより、音の立ち上がり感を調整したり、終了時刻をずらすことにより残響感を調整したりすることができる。
以上が、再生プログラム、抽出プログラム、修正プログラムが実行されたときの動作例の説明である。
As described above, when the registration button b7 is operated by the user, the audio data received by the
In this way, it is possible to adjust the feeling of rising sound by shifting the start time of the musical sound waveform signal corresponding to the sound material, or to adjust the feeling of reverberation by shifting the end time.
The above is the description of the operation example when the reproduction program, the extraction program, and the correction program are executed.
このように、本発明の実施形態における楽音処理装置10は、一のトラックに基づいて出力されるオーディオデータが示す楽音波形信号から音素材を抽出するだけでなく、このオーディオデータを加工して得られる楽音波形信号から音素材を抽出する。そのため、加工態様を変えることで抽出元楽音波形信号を変化させることにより、様々な音素材を抽出することができる。ここでいうオーディオデータの加工とは、上述したとおり、様々な態様で実現される。この楽音処理装置10においては、オーディオデータが示す楽音波形信号に対して音響効果を付与する信号処理を施す態様、オーディオデータに対して他のオーディオデータを合成する態様、およびオーディオデータのチャンネル数を変換する態様で、オーディオデータを加工して得られる楽音波形信号から、音素材を抽出することができる。
As described above, the musical
<変形例>
以上、本発明の実施形態について説明したが、本発明は以下のように、様々な態様で実施可能である。
[変形例1]
上述した実施形態において、加工態様として一のトラックのオーディオデータに対して他のオーディオデータを合成する態様については、双方のオーディオデータともに、音響効果付与部140によって音響効果が付与された楽音波形信号を示すオーディオデータであったが、音響効果が付与されていない楽音波形信号を示すオーディオデータであってもよい。
すなわち、音素材が抽出される対象として選択可能なオーディオデータには、一のトラックから得られるオーディオデータに対して、上述した加工態様のうち、少なくともいずれかの態様によって加工したものが含まれていればよい。この場合には、楽音処理装置10は、ユーザの指示によって、いずれかの加工態様が選択できるように構成されていてもよい。選択された内容は設定データなどにより規定されるようにすればよい。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention can be implemented in various aspects as follows.
[Modification 1]
In the above-described embodiment, with respect to the mode of synthesizing other audio data with the audio data of one track as the processing mode, the musical sound waveform signal to which the acoustic effect is imparted by the acoustic effect imparting unit 140 is used for both audio data. However, it may be audio data indicating a musical sound waveform signal to which no acoustic effect is given.
That is, the audio data that can be selected as a target from which sound material is extracted includes audio data obtained from one track that has been processed in at least one of the above-described processing modes. Just do it. In this case, the musical
[変形例2]
上述した実施形態においては、本発明のデータ処理装置は、再生機能、音素材抽出機能、および修正機能の各機能構成により実現されていたが、修正機能の構成については有していなくてもよい。
[Modification 2]
In the above-described embodiment, the data processing apparatus of the present invention is realized by the functional configurations of the reproduction function, the sound material extraction function, and the correction function, but may not have the configuration of the correction function. .
[変形例3]
上述した実施形態において、本発明のデータ処理装置は、DAWを実現する楽音処理装置10に適用されたものであるが、デジタルミキサ、アナログミキサなどにおいて適用されてもよい。この場合には、音素材抽出機能を有するデータ処理装置は、ミキサによりオーディオデータの加工をすることになる。そして、データ処理装置は、ミキサの各信号ラインにおけるオーディオデータを取得し、このオーディオデータから音素材を抽出し、データベースに登録するようにすればよい。この場合には、オーディオデータの加工を行う再生機能としてはミキサの機能により代替されるため、データ処理装置は、再生機能を実現しない構成であってもよい。このように、データ処理装置は、オーディオデータを加工する機能を実現する構成と、音素材抽出機能を実現する構成とを有していれば、どのような装置にも適用可能である。
[Modification 3]
In the above-described embodiment, the data processing apparatus of the present invention is applied to the musical
[変形例4]
上述した実施形態においては、データ出力部230は、特定データなどを出力してデータベースに登録していたが、必ずしもデータベースに登録される態様でなくてもよい。例えば、データ出力部230から出力される特定データなどは、インターフェイス14から外部装置に出力されるようにしてもよい。
[Modification 4]
In the embodiment described above, the
[変形例5]
上述した実施形態において、データ出力部230は、音素材DBへの音素材の登録に伴い、登録した音素材とその発音タイミングとを規定する音素材トラックに相当するデータ(音素材タイミングデータ)を出力して記憶部15に記憶するようにしてもよい。すなわち、1つの波形データの抽出元楽音波形信号から抽出された音素材の識別子と、音素材に対応する特定区間の開始時刻を示す情報とを対応付けたデータを記憶部15に記憶すればよい。
[Modification 5]
In the embodiment described above, the
図11は、本発明の変形例5における音素材タイミングデータの例を説明する図である。音素材タイミングデータは、音素材トラックにおける再生開始タイミングおよび音素材No.の部分に対応するのデータである。再生開始タイミングは、小節数、拍数、ティック数などの相対的な時刻として表される一方、特定区間の始まりの時刻は、楽音波形信号の先頭から経過時間に対応する絶対的な時刻である。そのため、データ出力部230は、予め決められたテンポ(例えば、テンポ=120(1拍0.5秒))を基準とすることによって、絶対的な時刻から相対的な時刻に変換して、音素材タイミングデータとして記憶する。なお、再生開始タイミングは、絶対的な時刻で表されていてもよく、この場合には上記のような変換は不要である。
このようにして記憶された音素材タイミングデータは、再生機能によって上記テンポで再生されると、抽出元楽音波形信号のうち、抽出された音素材部分が発音され、それ以外の部分がミュートされたような発音内容としてスピーカ161から出力されることになる。
FIG. 11 is a diagram for explaining an example of sound material timing data in
When the sound material timing data stored in this way is reproduced at the above tempo by the reproduction function, the extracted sound material portion of the extracted source musical sound waveform signal is pronounced and the other portions are muted. Such a pronunciation is output from the
なお、データ出力部230は、音素材タイミングデータの形式ではなく、音素材トラックの形式で出力して記憶部15に記憶するようにしてもよい。この場合には、音量、時間については、予め決められた値が決定されてもよいし、音素材の内容に応じて決定されてもよい。例えば、音量については、音素材に対応する楽音波形信号の信号レベルに応じて決定されればよい。時間については、音素材に対応する楽音波形信号の長さに応じて決定されればよい。
また、データ出力部230は、音素材DBに登録される形式において、各音素材に対して再生開始タイミングが対応付けられたデータとして出力して記憶部15に記憶するようにしてもよい。
Note that the
In addition, the
[変形例6]
上述した実施形態において、音素材トラックは、発音させる音素材を、その識別子によって規定するものであったが、特徴量データによって規定するものであってもよい。
[Modification 6]
In the above-described embodiment, the sound material track defines the sound material to be sounded by its identifier, but it may be defined by feature amount data.
図12は、本発明の変形例6における音素材トラックの例を説明する図である。図12に示すように、この例における音素材トラックは、図4に示す実施形態の場合の音素材の識別子を示す部分が、特徴量データを示す部分となっている。この場合、再生機能におけるデータ読出部110−3は、音素材トラックから特徴量データを読み出して、この特徴量データに類似する特徴量データを音素材DBから検索して特定する。そして、データ読出部110−3は、特定した特徴量データに対応する音素材データを、音素材トラックにより規定された再生開始タイミングで、音素材データ合成部130に出力すればよい。
なお、複数種類の音素材DBが記憶部15に記憶されている場合には、データ読出し部110−3が音素材データを特定するための検索対象とする音素材DBについても、時系列に音素材トラックに規定されるようにしてもよい。この構成については、後述する変形例7以降において詳細を説明する。
FIG. 12 is a diagram for explaining an example of a sound material track in the sixth modification of the present invention. As shown in FIG. 12, in the sound material track in this example, the part indicating the identifier of the sound material in the embodiment shown in FIG. 4 is the part indicating the feature data. In this case, the data reading unit 110-3 in the reproduction function reads the feature amount data from the sound material track, and searches the sound material DB for feature amount data similar to the feature amount data to specify the feature amount data. Then, the data reading unit 110-3 may output the sound material data corresponding to the specified feature amount data to the sound material data synthesizing unit 130 at the reproduction start timing specified by the sound material track.
When a plurality of types of sound material DBs are stored in the
また、音素材トラックは、さらに別の態様によっても規定され得る。例えば、音素材の識別子により楽音波形信号を規定する代わりに、シーケンスデータにおける各トラック(この例においてはオーディオトラック、MIDIトラック)と、そのトラックに基づいて生成されるオーディオデータのデータ範囲との組み合わせにより楽音波形信号を規定するようにしてもよい。 The sound material track can also be defined by another aspect. For example, instead of prescribing a musical sound waveform signal by an identifier of sound material, a combination of each track in the sequence data (in this example, an audio track, a MIDI track) and a data range of audio data generated based on the track Thus, a musical sound waveform signal may be defined.
図13は、本発明の変形例6における音素材トラックの別の例を説明する図である。図13に示すように、この例における音素材トラックは、図4に示す実施形態の場合の音素材の識別子を示す部分が、トラックを指定する部分(指定トラック)とデータ範囲を指定する部分となっている。指定トラックは、トラックの番号を示している。図13に示す例においては、tr1、tr2が示されているが、実施形態の動作例を用いて説明すれば、これらのトラックはともにオーディオトラックを示している。なお、tr3、tr4であればMIDIトラックとなる。
また、データ範囲は、音素材DBにおけるデータ範囲と同様に、時刻指定情報により規定される。この場合の時刻指定情報は、指定トラックに基づいて生成されるオーディオデータのデータ先頭からの時刻として決められている。なお、データ範囲は、予め決められたテンポ(例えば、テンポ=120(1拍0.5秒))で再生された場合を基準として規定されていてもよいし、設定データにより規定されたテンポで再生された場合を基準として規定されていてもよい。
FIG. 13 is a diagram for explaining another example of the sound material track in the sixth modification of the present invention. As shown in FIG. 13, in the sound material track in this example, the sound material identifier in the embodiment shown in FIG. 4 includes a portion for designating a track (designated track) and a portion for designating a data range. It has become. The designated track indicates the track number. In the example shown in FIG. 13, tr1 and tr2 are shown. However, when described using the operation example of the embodiment, both of these tracks indicate audio tracks. In addition, if it is tr3, tr4, it will become a MIDI track.
Further, the data range is defined by the time designation information in the same manner as the data range in the sound material DB. The time designation information in this case is determined as the time from the beginning of the audio data generated based on the designated track. The data range may be defined based on a case where playback is performed at a predetermined tempo (for example, tempo = 120 (1 beat 0.5 seconds)), or at a tempo defined by the setting data. It may be defined on the basis of the case where it is reproduced.
この音素材トラックにおいて指定トラックがオーディオトラックである場合、データ読出部110−3は、指定トラックに基づいてデータ読出部110−1から出力されるオーディオデータ(分岐B1から出力されるオーディオデータ)のうちデータ範囲が示すオーディオデータに相当する部分を、音素材データとして出力する。このように音素材データとして出力される部分については、データ読出部110−3は、実際のシーケンスデータの再生に先立って、データ読出部110−1から取得しておけばよい。例えば、シーケンスデータの再生前に、予めデータ読出部110−1を動作させて、データ範囲におけるオーディオデータを出力させればよい。 In this sound material track, when the designated track is an audio track, the data reading unit 110-3 performs the audio data output from the data reading unit 110-1 based on the designated track (audio data output from the branch B1). A portion corresponding to the audio data indicated by the data range is output as sound material data. As described above, the data reading unit 110-3 may acquire the portion output as sound material data from the data reading unit 110-1 prior to actual sequence data reproduction. For example, before reproducing sequence data, the data reading unit 110-1 may be operated in advance to output audio data in the data range.
指定トラックがMIDIトラックである場合には、データ読出部110−3は、指定トラックに基づいて音源部120から出力されるオーディオデータ(分岐B2から出力されるオーディオデータ)のうちデータ範囲が示すオーディオデータに相当する部分を、音素材データとして出力する。このように音素材データとして出力される部分については、データ読出部110−3は、実際のシーケンスデータの再生に先立って、音源部120から取得しておけばよい。例えば、シーケンスデータの再生前に、予めデータ読出部110−2および音源部120を動作させて、データ範囲におけるオーディオデータを出力させればよい。
In the case where the designated track is a MIDI track, the data reading unit 110-3 displays the audio indicated by the data range among the audio data output from the sound source unit 120 (audio data output from the branch B2) based on the specified track. The portion corresponding to the data is output as sound material data. As described above, the data reading unit 110-3 may acquire the portion output as the sound material data from the
[変形例7]
上述した変形例6の説明にて述べた、複数種類の音素材DBが記憶部15に記憶されている場合には、データ読出し部110−3が音素材データを特定するための検索対象とする音素材DBについても、時系列に音素材トラックに規定されるようにしてもよいとした例について、詳細に説明する。ここでは、これらの処理が楽音処理装置10においてのみ行われる場合ではなく、複数の装置間のやり取りを含んで行われる場合について説明する。
[Modification 7]
In the case where a plurality of types of sound material DBs are stored in the
図14は、本発明の変形例7における発音制御システム1の構成を説明するブロック図である。発音制御システム1は、インターネットなどの通信回線1000を介して接続される楽音処理装置10Aおよびサーバ装置50を有する。
楽音処理装置10Aは、上述した実施形態に示した楽音処理装置10と概ね同じ構成を有している。楽音処理装置10Aのインターフェイス14は、さらに、通信回線1000を介してサーバ装置50と各種情報のやり取りを行う通信部としても機能する。また、楽音処理装置10Aの記憶部15には音素材DBおよび波形DBは記憶されていなくてもよく、この例では、これらのDBはサーバ装置50において記憶されている。また、楽音処理装置10Aの記憶部15には、制御部11において実行される音素材トラック作成プログラムを記憶している。音素材トラック作成プログラムは、本変形例における音素材トラックを作成するためのプログラムである。
FIG. 14 is a block diagram illustrating the configuration of the sound generation control system 1 according to Modification 7 of the present invention. The sound generation control system 1 includes a musical
The musical
図15は、本発明の変形例7におけるサーバ装置50の構成を説明する図である。サーバ装置50は、制御部51、通信部54および記憶部55を有する。これらの各構成は、バスを介して接続されている。
制御部51は、CPU、RAM、ROMなどを有する。制御部51は、ROMまたは記憶部55に記憶された各種プログラムを実行することにより、各種機能を実現する。この例においては、制御部51は、楽音処理装置10Aからの指示により、検索プログラムを実行する。検索プログラムが実行されると、楽音処理装置10Aからの指示に応じて、記憶部55の音素材DBを検索して、特定した音素材データを楽音処理装置10Aに送信する機能を実現する。この機能の詳細については別途説明する。
FIG. 15 is a diagram illustrating the configuration of the
The
通信部54は、制御部51の制御に応じて、通信回線1000と接続して、楽音処理装置10Aなどの通信装置と情報のやりとりを行う。制御部51は、通信部54を介して取得した情報を用いて、記憶部55に記憶された情報を更新するようにしてもよい。また、通信部54は、通信回線1000を介した通信に限らず、有線または無線により外部装置と接続可能に構成されたインターフェイスを有していてもよい。
The
記憶部55は、ハードディスク、不揮発性メモリなどであり、音素材DB、波形DBをそれぞれ記憶する記憶領域の他、上述した検索プログラムなどの各種プログラムを記憶する記憶領域を有する。波形DBは上述したように楽音処理装置10の記憶部15に記憶されていた波形DBと同様であるから説明を省略する。
音素材DBは、複数の音素材DB(音素材DBa、DBb,・・・)から構成されている。以下、それぞれを特に区別せずに説明する場合には、音素材DBという。音素材DBのそれぞれは、登録された音素材データは異なるものの、データベースの構成としては、上述した楽音処理装置10の記憶部15に記憶されていた音素材DBと同様であるから説明を省略する。なお、音素材DBについては、予め記憶部55に記憶されているが、通信部54を介して外部装置から取得することにより、新たな種類の音素材DBがさらに記憶されるようにしてもよい。
The
The sound material DB is composed of a plurality of sound material DBs (sound material DBa, DBb,...). In the following description, each of them will be referred to as a sound material DB when they are described without distinction. Although each of the sound material DBs is different from the registered sound material data, the structure of the database is the same as the sound material DB stored in the
図16は、本発明の変形例7における音素材トラックの例を説明する図である。この例における音素材トラックは、特徴量指定データ(図16(a))およびDB指定データ(図16(b))により構成される。特徴量指定データは、発音タイミングを示す再生時刻、そのタイミングに発音させたい音素材データに相当する特徴量データ、発音の音量および時間が対応付けられている。図16(a)の例によれば、再生時刻「0002:01:000」(第2小節第1拍に対応)においては、特徴量データPiに基づく音を、音量「20」、発音時間「120」で発音させることが示されている。なお、後述するように、発音される特徴量データPiに基づく音は、特徴量データPiの音素材データが示す音素材とは限らず、類似する音のいずれかとなる。
DB指定データは、特徴量指定データによって示される特徴量データを用いて、サーバ装置50において音素材データを特定するときの検索対象となる音素材DBの種類を再生時刻の範囲として設定されたデータである。図16(b)の例によれば、再生時刻「0001:01:000」から「0001:03:959」までは、検索対象となるデータベースは音素材DBaであることを示している。
FIG. 16 is a diagram for explaining an example of a sound material track in Modification 7 of the present invention. The sound material track in this example is composed of feature quantity designation data (FIG. 16A) and DB designation data (FIG. 16B). The feature amount designation data is associated with a reproduction time indicating a sound generation timing, feature amount data corresponding to sound material data to be generated at that timing, sound volume and time. According to the example of FIG. 16A, at the reproduction time “0002: 01: 000” (corresponding to the first bar of the second measure), the sound based on the feature amount data Pi is set to the volume “20”, the sound generation time “ 120 ”is shown to be pronounced. As will be described later, the sound based on the feature value data Pi to be generated is not limited to the sound material indicated by the sound material data of the feature value data Pi, and is a similar sound.
The DB designation data is data in which the type of sound material DB to be searched when the sound material data is specified in the
次に、楽音処理装置10Aの制御部11が音素材トラック作成プログラムを実行し、それに伴いサーバ装置50の制御部51が検索プログラムを実行することによって実現される機能について説明する。なお、以下に説明する機能を実現する各構成の一部または全部については、ハードウエアによって実現してもよい。
Next, functions realized when the
図17は、本発明の変形例7における楽音処理装置10Aおよびサーバ装置50の機能を説明する機能ブロック図である。制御部11が音素材トラック作成プログラムを実行すると、表示制御部310、設定部320、発音制御部330およびデータ出力部340を構成する。この例においては楽音処理装置10Aは、表示制御部310、設定部320および発音制御部330が構成されることにより発音制御装置として機能する。また、制御部51が検索プログラムを実行すると、特定部510を構成する。この例においてはサーバ装置50は、特定部510が構成されることにより特定装置として機能する。
表示制御部310は、ユーザによって入力される指示に応じて、表示画面131の表示内容を制御する。この場合、表示画面131には、図18に示すような内容が表示される。
FIG. 17 is a functional block diagram for explaining the functions of the musical
The
図18は、本発明の変形例7における音素材トラック作成プログラム実行時の表示画面131の表示例を説明する図である。表示画面131には、大きく分けてアイコン配置領域STおよびDB配置領域DTが表示される。アイコン配置領域STおよびDB配置領域DTは、横軸を共通の時間軸として決められている。拍子線BLは、1拍ごとの位置を示す補助線である。また、アイコン配置領域STは、縦軸が発音の音量を規定する音量軸である。なお、アイコン画像の位置に関係なく音量が規定されるものとすれば音量軸はなくてもよい。
FIG. 18 is a diagram for explaining a display example of the
アイコン画像s1、s2、・・・は、特徴量データが対応付けられた画像である。アイコン画像s1、s2、・・・がアイコン配置領域STに配置されることにより、アイコン画像左端の時間軸に沿った方向の位置に応じて、それぞれ対応した特徴量データに基づく音の発音タイミングが規定される。また、アイコン画像下端の音量軸に沿った方向の位置に応じて、その音量が規定される。アイコン画像s1、s2、・・・の絵柄の種類は、対応付けられた特徴量データが分類されるカテゴリ(分類A、B、・・・)ごとに異なるように決められている。例えば、アイコン画像s1に対応する特徴量データとアイコン画像s2に対応する特徴量データとは異なるカテゴリに分類されるものであり、アイコン画像s2に対応する特徴量データとアイコン画像s4に対応する特徴量データとは同じカテゴリに分類されるものである。なお、アイコン画像の絵柄は、カテゴリに応じて異なったものでなくてもよい。すなわち、全て同じ絵柄であってもよいし、別のパラメータに応じて異なる絵柄になるように制御されてもよい。 Icon images s1, s2,... Are images associated with feature amount data. .. Are arranged in the icon arrangement region ST, so that the sound generation timing based on the corresponding feature amount data is set according to the position in the direction along the time axis at the left end of the icon image. It is prescribed. The volume is defined according to the position in the direction along the volume axis at the lower end of the icon image. The types of patterns of the icon images s1, s2,... Are determined so as to be different for each category (classification A, B,...) Into which the associated feature amount data is classified. For example, the feature amount data corresponding to the icon image s1 and the feature amount data corresponding to the icon image s2 are classified into different categories, and the feature amount data corresponding to the icon image s2 and the feature corresponding to the icon image s4. Quantity data is classified into the same category. Note that the pattern of the icon image may not be different depending on the category. That is, all may be the same pattern, or may be controlled so as to be different according to different parameters.
DB画像d1、d2、・・・は、音素材DBの種類が対応付けられた画像である。DB画像d1、d2、・・・が、DB配置領域DTに配置され、DB画像の左端から右端の時間軸に沿った方向の位置に応じて、そのDB画像に対応する音素材DBがサーバ装置50における検索対象として適用される期間が規定される。例えば、音素材DBaは、時刻t0から時刻t2までが検索対象として適用され、音素材DBcは、時刻t1から時刻t3までが検索対象として適用される。すなわち、時刻t1から時刻t2までは、音素材DBaと音素材DBcとの双方が検索対象として適用される。 The DB images d1, d2,... Are images in which the types of sound material DBs are associated. DB images d1, d2,... Are arranged in the DB arrangement region DT, and the sound material DB corresponding to the DB image is stored in the server apparatus according to the position in the direction along the time axis from the left end to the right end of the DB image. A period to be applied as a search target in 50 is defined. For example, the sound material DBa is applied as a search target from time t0 to time t2, and the sound material DBc is applied as a search target from time t1 to time t3. That is, from time t1 to time t2, both the sound material DBa and the sound material DBc are applied as search targets.
また、表示画面131には、再生テンポを設定するためのテンポ制御ボタンb11、アイコン配置領域のアイコン画像の配置態様に基づいて、音素材トラックをオーディオデータに変換するための指示を行うための変換指示ボタンb12、変換により生成されたオーディオデータを発音させるための再生指示ボタンb13が表示される。このテンポ制御ボタンb11は、上述したテンポ制御ボタンb1と同様の機能を有している。また、作成した音素材トラックを記憶部15に記憶させるための決定ボタンb14が表示されていてもよい。
The
図17に戻って説明を続ける。設定部320は、ユーザによって入力された指示に応じて、時間軸に沿って音素材DBの種類を設定する。この例においては、設定部320は、設定内容を表示制御部310に出力して、図18に示すように表示画面にDB画像を表示させる。なお、設定部320は、表示制御部310への出力をせずに、DB画像が表示画面131に表示されないようにしてもよい。この場合には、DB配置領域DTは不要である。すなわち、音素材DBの種類がアイコン配置領域STと同じ時間軸に沿って設定されていれば、その設定内容が表示画面131に表示されていても表示されていなくてもよい。
Returning to FIG. 17, the description will be continued. The
表示制御部310および設定部320は、アイコン画像の配置態様、音素材DBの種類の設定態様に応じて音素材トラックを生成する。ここで、表示制御部310は、音素材トラックのうち、特徴量指定データを生成し、設定部320は、音素材トラックのうちDB指定データを生成する。音素材トラックは、アイコン画像が配置されたり、音素材DBの設定が行われたりする度に内容が決定されるようにしてもよいし、変換指示ボタンb12が操作されたときに決定されるようにしてもよい。上述した保存ボタンb14が表示画面131に表示されている場合には、ユーザによって保存ボタンb14が操作が操作されると、ここで生成された音素材トラックが記憶部15に保存される。
The
発音制御部330は、ユーザによって変換指示ボタンb12が操作されると、サーバ装置50に対して、生成された音素材トラックの一部または全部を通信部14を介して送信し、サーバ装置50の制御部51に検索プログラムを起動、実行させる。音素材トラックの一部とは、少なくとも、特徴量データと、その特徴量データに対して時間軸において対応関係にある音素材DBの種類(種類情報)とを対応付けた部分のデータである。そして、発音制御部330は、サーバ装置50から音素材データをインターフェイス14を介して受信して、受信した音素材データおよび音素材トラックに基づいて、データ出力部340からオーディオデータを出力させる。具体的には、発音制御部330は、音素材トラックの特徴量指定データを参照して、アイコン画像に対応する音素材データを音量に応じてレベルを変化させる加工をし、再生時刻に応じたタイミングでオーディオデータとして出力させる。データ出力部340は、発音制御部330の制御に応じてオーディオデータを出力する。
When the conversion instruction button b <b> 12 is operated by the user, the sound generation control unit 330 transmits a part or all of the generated sound material track to the
特定部510は、発音制御部330から送信された音素材トラックに基づく情報を通信部54を介して受信し、記憶部55に記憶された音素材DBのうち、受信した情報が示す検索対象となる種類の音素材DBを検索し、音素材トラックに含まれる各特徴量データのそれぞれに対して、類似する特徴量データをもつ音素材データを特定する。この例においては、特定部510は、特徴量データを複数の特徴量により構成されるベクトル量として取り扱い、検索対象となる種類の音素材DBを参照してユークリッド距離が最も短くなる特徴量データをもつ音素材データを特定する。
なお、類似度を判断するためのアルゴリズムについては、公知の他のアルゴリズムを用いてもよい。また、ユークリッド距離が最も短くなるものでなくてもよく、2番目、3番目に近いものを特定してもよい。このような特定を行うために必要な情報は、予めユーザなどにより設定されていればよい。また、特定される音素材データは、音素材トラックに含まれる特徴量データに対して、特徴量データが類似関係にあるものでなくてもよく、予め決められた特定の関係にあればよい。また、検索対象については、検索対象となる種類の音素材DBとするだけなく、さらに、カテゴリにより絞りこまれてもよい。この場合には、検索対象となるカテゴリは、例えばユーザによって指示されたものであってもよいし、音素材トラックに含まれる特徴量データと同じカテゴリまたは関連するカテゴリであってもよい。ここで、関連するカテゴリは、予め設定されたアルゴリズムに従って決められてもよいし、予め関連するカテゴリ同士が設定されていてもよい。
The specifying
Note that other known algorithms may be used as the algorithm for determining the similarity. Further, the Euclidean distance may not be the shortest, and the second and third closest ones may be specified. Information necessary to perform such identification may be set in advance by a user or the like. Further, the specified sound material data may not have a similarity relationship between the feature amount data and the feature amount data included in the sound material track, and may have a predetermined specific relationship. The search target may be narrowed down by category as well as the type of sound material DB to be searched. In this case, the category to be searched may be specified by the user, for example, or may be the same category as the feature amount data included in the sound material track or a related category. Here, the related categories may be determined according to a preset algorithm, or related categories may be set in advance.
そして、特定部510は、特定した素材データを通信部54を介して発音制御部330に送信する。なお、上述の通り、この例においては、通信部54は、音素材トラックに基づく情報を受信することにより取得する取得手段、および特定された素材データを送信することにより出力する出力手段として機能する。
以上が機能構成についての説明である。続いて、音素材トラック作成プログラム実行時の発音制御システム1における動作について図19を用いて説明する。
Then, the specifying
The above is the description of the functional configuration. Next, the operation of the sound generation control system 1 when the sound material track creation program is executed will be described with reference to FIG.
図19は、本発明の変形例7における音素材トラック作成プログラム実行時の発音制御システム1の動作を説明する図である。ここでは、楽音処理装置10Aは、ユーザから音素材トラック作成プログラムの実行の指示が入力された後の処理を説明する。音素材トラック作成プログラムが実行されると、表示画面131には、図18に示すように、アイコン配置領域ST、DB配置領域DTなどの表示がなされる。この段階においては、アイコン画像およびDB画像は表示されていないものとする。
FIG. 19 is a diagram for explaining the operation of the sound generation control system 1 when the sound material track creation program is executed according to the seventh modification of the present invention. Here, the musical
ユーザは、特徴量データの内容を決定する指示、決定した内容により決まる絵柄のアイコン画像をアイコン配置領域STに配置する指示、DB画像をDB配置領域DTに配置する指示を入力することにより、楽音を発生させるためのシーケンスを作成する(ステップS110)。その結果、表示画面131には、図18に示す内容で表示されたものとする。この状態で生成されている音素材トラックは、例えば、図16に示す内容となる。この場合、アイコン画像s3、s4、s5に対応する特徴量データは、Ph、Pi、Pjとなる。
The user inputs an instruction to determine the contents of the feature amount data, an instruction to place an icon image of a pattern determined by the determined contents in the icon arrangement area ST, and an instruction to place the DB image in the DB arrangement area DT, thereby A sequence for generating is generated (step S110). As a result, it is assumed that the
ユーザは、変換指示ボタンb12を操作することにより変換指示(ステップS120)を入力すると、楽音処理装置10Aは、発音制御部330によりサーバ装置50に音素材トラックを送信する(ステップS130)。送信される音素材トラックは、上述したように、全ての情報でなくてもよく、特徴量データと、その特徴量データに対して時間軸において対応関係にある音素材DBの種類とを対応付けた部分を有したデータであればよい。
When the user inputs a conversion instruction (step S120) by operating the conversion instruction button b12, the musical
サーバ装置50は、このデータを受信すると、検索プログラムを実行し、特定部510により音素材DBを検索して音素材データを特定する(ステップS140)。例えば、アイコン画像s3に対応する特徴量データPiについては、時間軸において対応関係にある音素材DBの種類となる音素材DBcを検索して、特徴量データPiに類似する特徴量データをもつ音素材データを楽音処理装置10Aに送信する(ステップS150)。このとき、サーバ装置50は、特定した音素材データがどの特徴量データに対応したものであるかが識別できるようにして送信する。
Upon receiving this data, the
楽音処理装置10Aは、これらのデータを受信が完了するとその旨をユーザに通知する。ユーザは、再生指示ボタンb13を操作することにより再生指示を入力(ステップS160)すると、発音制御部330によりデータ出力部340を制御させる。発音制御部330は、音素材トラックのうち特徴量指定データを参照して、受信した音素材データの音量を調整して、対応する特徴量データの再生時刻にしたがってオーディオデータとしてデータ出力部340から出力(ステップS170)させ、スピーカ161から発音させる。
ユーザは、スピーカ161からの発音を聴き、所望の音になっている場合には、決定ボタンb14を操作して、音素材トラックを記憶部15に記憶させる。
When the reception of these data is completed, the musical
The user listens to the pronunciation from the
このようにして、ユーザが作成したシーケンスにしたがって、楽音処理装置10Aからオーディオデータが出力される。ここで、検索対象となる音素材DBの種類は、DB指定データによって規定されている。したがって、ユーザは、DB指定データを変更するだけで検索対象となる音素材DBの種類が変更されるから、特徴量指定データの内容が変更されていなくても、特定部510において特定される音素材データも変化する。したがって、ユーザの再生指示により発音される内容も変化することになる。このとき、音素材データは変化したとしても、特徴量データが変わるわけではないから、音素材データの音が全く違うものに変化せず、大体の場合は同じカテゴリに分類されているものから特定される。したがって、音素材DBの種類が、例えば、楽曲のジャンル(ジャズ、ロックなど)に応じたものとなっている場合には、ユーザはDB指定データを変更するだけでも、同じような発音内容(楽音のパターンなど)を維持したまま、ジャズであったりロックであったりと印象を変更することができる。
なお、実施形態におけるデータ読込部110−3および音素材データ合成部130(図5参照)は、変形例7の構成が適用された場合には発音制御部330の機能と同様にしてオーディオデータを出力するようにすればよい。また、データ読込部110−3および音素材データ合成部130は、データ出力部340から出力されたオーディオデータを記憶部15に記憶しておきオーディオトラックと同様に扱って処理するようにしてもよい。
In this way, audio data is output from the musical
Note that the data reading unit 110-3 and the sound material data synthesis unit 130 (see FIG. 5) in the embodiment receive audio data in the same manner as the function of the sound generation control unit 330 when the configuration of the modification example 7 is applied. What is necessary is just to make it output. Further, the data reading unit 110-3 and the sound material data synthesizing unit 130 may store the audio data output from the
[変形例8]
上述した変形例7において、ユーザによって入力された指示に応じて、アイコン配置領域STに表示されるアイコン画像が時間軸方向に伸縮可能に構成されてもよい。
[Modification 8]
In the modified example 7 described above, the icon image displayed in the icon arrangement area ST may be configured to be expandable and contractable in the time axis direction in accordance with an instruction input by the user.
図20は、本発明の変形例8における音素材トラック作成プログラム実行時の表示画面の表示例を説明する図である。表示制御部310は、表示画面131に表示されたアイコン画像の長さを、ユーザによって入力された指示に応じて時間軸に沿った方向に変化させる。例えば、図18に示すアイコン画像s4を、図20に示すアイコン画像s41のように、時間軸に沿った方向に伸長させる。この場合には、発音制御部330は、このアイコン画像s41に対応する音素材データを出力部340から出力させるときに、アイコン画像s41の時間軸に沿った方向の長さに応じて、タイムストレッチ処理(音素材データの波形を伸ばす処理)、ループ処理(音素材データを繰り返して出力させる処理)などを施すことにより加工し、データ出力部340からオーディオデータとして出力させてもよい。この場合、音素材トラックにおいてアイコン画像に対応して決められている時間が変更される。なお、シーケンス情報として発音終了のタイミング、ループ再生のフラグなど必要な情報が追加されてもよい。
なお、図18に示すアイコン画像は、すべて同じ大きさであり、本変形例での処理により時間軸に沿った方向に伸縮させていたが、伸縮させる前の状態であっても、音素材トラックにおけるそのアイコン画像に対応して決められている時間に応じた長さで表示されてもよい。
FIG. 20 is a diagram for explaining a display example of a display screen when the sound material track creation program is executed according to Modification 8 of the present invention. The
Note that the icon images shown in FIG. 18 are all the same size and have been expanded and contracted in the direction along the time axis by the processing in this modified example. May be displayed with a length corresponding to the time determined corresponding to the icon image.
[変形例9]
上述した変形例7においては、アイコン配置領域STの縦軸は音量を示す座標軸(音量軸)であったが、例えば、ピッチ、音長などを示す座標軸(以下、指定座標軸という)としてもよい。すなわち、アイコン配置領域STは、音素材データの音量以外の他の加工内容を指定する指定値を示す指定座標軸をもっていてもよい。ピッチを示す指定座標軸とした場合には、発音制御部330は、音素材データのピッチを、アイコン画像の指定座標軸における位置に応じて変更してデータ出力部340からオーディオデータとして出力させればよい。音長を示す指定座標軸とした場合には、発音制御部330は、アイコン画像の指定座標軸に於ける位置に応じて、タイムストレッチ処理(音素材データの波形を伸ばす処理)、ループ処理(音素材データを繰り返して出力させる処理)などを施すことにより加工し、データ出力部340からオーディオデータとして出力させればよい。
また、指定座標軸によって指定される加工内容は、音量、ピッチなど複数種類にわたってもよく、この場合には、ユーザによって入力された指示に応じて、指定座標軸の種類を切り替えて、アイコン画像を配置可能なものとしてもよい。このように切り替え可能な指定座標軸をもつアイコン配置領域STにアイコン画像を配置させることにより、音素材データを様々に加工してもよい。
[Modification 9]
In the modified example 7 described above, the vertical axis of the icon arrangement region ST is a coordinate axis (volume axis) indicating volume, but may be a coordinate axis (hereinafter referred to as a designated coordinate axis) indicating pitch, sound length, and the like. That is, the icon arrangement area ST may have a designated coordinate axis indicating a designated value for designating other processing contents other than the volume of the sound material data. When the designated coordinate axis indicating the pitch is used, the sound generation control unit 330 may change the pitch of the sound material data according to the position of the icon image on the designated coordinate axis and output the audio data from the
In addition, the processing content specified by the specified coordinate axis may be in multiple types such as volume and pitch. In this case, the icon image can be arranged by switching the type of the specified coordinate axis according to the instruction input by the user. It may be good. The sound material data may be variously processed by arranging the icon image in the icon arrangement area ST having the designated coordinate axis that can be switched in this way.
[変形例10]
上述した変形例7においては、アイコン配置領域STの縦軸は音素材データの加工内容を指定する指定座標軸であったが、特定部510において音素材データを特定するための特定値を示す座標軸(以下、特定座標軸という)としてもよい。この場合には、特定部510は、音素材データを特定するときに、アイコン画像の特定座標軸における位置に応じて特定すればよい。例えば、特定値が類似度に関するものであれば、アイコン配置領域STの上方にアイコン画像が位置するほど、特定部510において特定される音素材データが類似度が低い(特徴量データ間のユークリッド距離が長い)ものが特定されるようにすればよい。
なお、類似度についてはユーザが指定するのではなく、例えば、ユーザが所定の操作(ランダムボタンの操作など)をすることにより、全てのアイコン画像または予め指定されたアイコン画像に対応する類似度が予め決められたアルゴリズム(例えばランダム)に従って指定されるようにしてもよい。
[Modification 10]
In the modified example 7 described above, the vertical axis of the icon arrangement area ST is a designated coordinate axis for designating the processing content of the sound material data, but the coordinate axis (a specific value for identifying the sound material data in the identifying unit 510 ( Hereinafter, it may be referred to as a specific coordinate axis). In this case, the specifying
Note that the degree of similarity is not specified by the user. For example, when the user performs a predetermined operation (such as an operation of a random button), the degree of similarity corresponding to all icon images or previously specified icon images can be obtained. It may be specified in accordance with a predetermined algorithm (for example, random).
また、特定値の内容は複数種類にわたってもよく、この場合には、ユーザによって入力された指示に応じて、アイコン配置領域STにおける特定座標軸と変形例9における指定座標軸とを切り替えて、アイコン画像を配置可能なものとしてもよい。他の種類の例としては、例えば、アイコン画像に対応する特徴量データを変化させて分類させるカテゴリを変化させるものであってもよい。
Further, the content of the specific value may include a plurality of types. In this case, the icon image is switched by switching between the specific coordinate axis in the icon arrangement area ST and the designated coordinate axis in the
[変形例11]
上述した変形例7において、図19に示すステップS170の処理、すなわち、音素材トラック作成プログラムの実行時にデータ出力部340から出力されるオーディオデータは、発音制御部330が、アイコン画像の時間軸における位置に応じたタイミングで音素材データを出力することにより実現していたが、出力期間全体の発音内容を示すデータとして発音制御部330によって生成された後、データ出力部340から出力されるようにしてもよい。発音制御部330は、生成されたオーディオデータを記憶部15に出力して記憶させるようにしてもよい。また、オーディオデータとして記憶させる場合に限らず、音素材トラックと音素材データとの組み合わせなど、オーディオデータを生成するために必要な複数種類のデータで記憶させれるようにしてもよい。各種データを記憶させる指示については、ユーザによって入力されるようにすればよい。
[Modification 11]
In the modification example 7 described above, the sound generation control unit 330 outputs the audio data output from the
また、このようなオーディオデータに基づく発音は、楽音処理装置10Aのスピーカ161から出力されていたが、楽音処理装置10Aに接続される外部のスピーカ装置から出力されるようにしてもよいし、サーバ装置50から出力されるようにしてもよい。すなわち、発音制御部330は、音を出力する何らかの装置から発音されるように、オーディオデータを出力させるように、楽音処理装置10Aの構成のみならず接続される各構成を制御すればよい。
In addition, the sound generation based on the audio data is output from the
[変形例12]
上述した変形例7においては、音素材トラック作成プログラム実行時に表示画面131に表示されるアイコン画像、DB画像などはプログラム上において生成しているが、これらの画像は、予め記憶部15、55などに記憶されていてもよい。
[Modification 12]
In the modified example 7 described above, the icon image, DB image, and the like displayed on the
[変形例13]
上述した変形例7においては、アイコン配置領域STに表示されるアイコン画像に対応する特徴量データの内容は、ユーザが入力した指示に応じて決定していたが、ユーザは、アイコン画像の絵柄(またはカテゴリ)を選択することにより、この絵柄に対応するカテゴリの予め決められた代表値を特徴量データとして決定するようにしてもよい。
[Modification 13]
In the modified example 7 described above, the content of the feature amount data corresponding to the icon image displayed in the icon arrangement area ST is determined according to the instruction input by the user. Alternatively, a predetermined representative value of the category corresponding to the pattern may be determined as the feature amount data by selecting (or category).
[変形例14]
上述した変形例7において、DB指定データの内容は、ユーザがDB配置領域DTにDB画像を配置することにより決定されていたが、予め決められたアルゴリズムにしたがって、再生時刻範囲と音素材DBの種類との関係を、制御部11が自動的に決定するようにしてもよい。
[Modification 14]
In the modified example 7 described above, the content of the DB designation data is determined by the user placing a DB image in the DB placement area DT, but according to a predetermined algorithm, the reproduction time range and the sound material DB The
[変形例15]
上述した変形例7において、DB指定データの内容として音素材DBの種類の指定がされていない再生時刻範囲が存在する場合には、指定されていない再生時刻範囲においては、予め決められた音素材DBの種類(全ての種類、一部の特定の種類など)が検索対象として指定されてもよいし、その範囲の直前に指定されていた種類を指定してもよい。
[Modification 15]
In the above-described modification example 7, when there is a playback time range in which the type of the sound material DB is not specified as the contents of the DB specification data, a predetermined sound material is determined in the playback time range not specified. The DB type (all types, some specific types, etc.) may be specified as a search target, or the type specified immediately before the range may be specified.
[変形例16]
上述した実施形態においては、音素材DBのデータ範囲に応じて、適時波形DBから音素材データを取得しているが、あらかじめ切出し済みの区間の音素材データだけを保持しておいても良い。その場合、音素材DBにデータ範囲の情報は不要である。
[Modification 16]
In the embodiment described above, the sound material data is acquired from the timely waveform DB according to the data range of the sound material DB, but only the sound material data of the section that has been cut out in advance may be stored. In that case, data range information is not required in the sound material DB.
[変形例17]
上述した変形例7において、ユーザが音素材データ(特定データ)のデータ範囲を調整できるようにしてもよい。
[Modification 17]
In the modified example 7 described above, the user may be able to adjust the data range of the sound material data (specific data).
図21は、本発明の変形例17における音素材トラック作成プログラム実行時の表示画面の表示例を説明する図である。図21は、変形例7において説明した図18において、ユーザがアイコン画像s3に対して所定の操作(ダブルクリック操作など)をしたときにの表示内容を示している。図21に示すポップアップウインドウPWは、ユーザの操作に応じて表示され、その内容がアイコン画像s3に対応する波形を拡大したものとなっている。ここで、アイコン画像s3に対応する波形とは、再生時にアイコン画像s3に対応して発音される音の波形である。ユーザはポップアップウインドウPWにおいて波形の範囲を変更することにより、時間軸方向の長さを調整することができる。 FIG. 21 is a diagram for explaining a display example of the display screen when the sound material track creation program is executed according to the seventeenth modification of the present invention. FIG. 21 shows the display contents when the user performs a predetermined operation (such as a double click operation) on the icon image s3 in FIG. 18 described in the modified example 7. The pop-up window PW shown in FIG. 21 is displayed according to the user's operation, and its contents are enlarged waveforms corresponding to the icon image s3. Here, the waveform corresponding to the icon image s3 is a waveform of a sound that is pronounced corresponding to the icon image s3 during reproduction. The user can adjust the length in the time axis direction by changing the waveform range in the pop-up window PW.
[変形例18]
上述した変形例7において、DB配置領域DTには、音素材DBの種類が対応付けられたDB画像が表示されていたが、音素材DBの種類とその検索対象となる時刻の範囲とは別々に表示されていてもよい。
[Modification 18]
In the modified example 7 described above, the DB image in which the type of the sound material DB is associated is displayed in the DB arrangement region DT. However, the type of the sound material DB and the time range to be searched are different. May be displayed.
図22は、本発明の変形例18における音素材トラック作成プログラム実行時の表示画面の表示例を説明する図である。この例においては、DB配置領域DTは、指定される音素材DBが各行に分割されて表示される。各行には、指定された音素材DBが検索対象となる時刻の範囲を示すDB期間指定画像d1a、d2a、・・・が配置される。DB配置領域DTの左側には、各行に対応した音素材DBの種類を指定するためのDB種類指定領域DMが表示されている。ユーザは、ポップアップメニューなどにより、各行に対応する音素材DBの種類を変更できるようになっている。 FIG. 22 is a diagram for explaining a display example of the display screen when executing the sound material track creation program according to the modification 18 of the present invention. In this example, the specified sound material DB is divided into lines and displayed in the DB arrangement area DT. In each row, DB period designation images d1a, d2a,... Indicating the time range in which the designated sound material DB is a search target are arranged. On the left side of the DB placement area DT, a DB type designation area DM for designating the type of the sound material DB corresponding to each row is displayed. The user can change the type of the sound material DB corresponding to each row by a pop-up menu or the like.
図22に示す例では、音素材DBa、DBb、DBc指定され、例えば、音素材DBaについては、DB期間指定画像d1aが指定する時刻の範囲において検索対象となる。図22における表示は、図18とは異なる表示であるが、音素材DBの種類およびその検索対象となる時刻の範囲は同じである。
なお、DB種類指定領域DMの左側に表示されているチェックボックスCBにより、対応する行において指定された検索対象を有効とするか無効とするかを指定する事ができるようにしてもよい。このチェックボックスCBは、図18に示す表示において用いられてもよい。
In the example shown in FIG. 22, the sound material DBa, DBb, and DBc are designated. For example, the sound material DBa is a search target in the time range designated by the DB period designation image d1a. The display in FIG. 22 is a display different from that in FIG. 18, but the type of sound material DB and the time range to be searched for are the same.
Note that the check box CB displayed on the left side of the DB type specification area DM may be used to specify whether the search target specified in the corresponding row is valid or invalid. This check box CB may be used in the display shown in FIG.
[変形例19]
上述した変形例7において、図18に示す表示におけるアイコン画像は、ユーザの指示に応じて決定された特徴量データに応じて配置されていた。ユーザが特徴量データを指示するときに、所望の特徴量データを音素材DBから検索するようにしてもよい。このときには、例えば、特開2011−163171号公報に開示された方法を用いればよい。また、このときの検索対象の音素材DBの種類については、図22に示したチェックボックスCBにおいて指定された音素材DBとしてもよい。なお、ユーザがこのようにアイコン画像に対応する特徴量データを指示する場合には、図18に示す表示の一部に、特徴量データの指示をするための表示を行うようにすればよい。また、アイコン画像に対して所定の操作(ダブルクリック操作など)をしたときにポップアップウインドウなどを表示させて、そのアイコン画像に対応する特徴量データを指示できるようにしてもよい。
[Modification 19]
In the modified example 7 described above, the icon image in the display shown in FIG. 18 is arranged according to the feature amount data determined according to the user's instruction. When the user instructs the feature data, the desired feature data may be searched from the sound material DB. At this time, for example, a method disclosed in Japanese Patent Application Laid-Open No. 2011-163171 may be used. Further, the type of sound material DB to be searched at this time may be the sound material DB specified in the check box CB shown in FIG. When the user instructs the feature amount data corresponding to the icon image in this way, a display for instructing the feature amount data may be performed on a part of the display shown in FIG. Further, when a predetermined operation (such as a double click operation) is performed on the icon image, a pop-up window or the like may be displayed so that the feature amount data corresponding to the icon image can be designated.
[変形例20]
上述した変形例7での図18に示す表示において、音素材DBの種類、およびその検索対象となる時刻の範囲については、ユーザが指定していたが、例えば、ユーザが所定の操作(ランダムボタンの操作など)をすることにより、予め決められたアルゴリズム(例えばランダム)に従って指定されるようにしてもよい。また、図8に示すように予め音素材DBの種類、およびその検索対象となる時刻の範囲が決められている場合には、いずれかのDB画像を指定して、指定されたDB画像に対して予め決められたアルゴリズム(例えばランダム)に従って、音素材DBの種類、時刻の範囲が変更されるようにしてもよい。さらには、データベースのランダム選択で、DB配置領域DT自体をアクティブ(音素材DBを選択する機能が生きている状態)にして音素材DBを選択可能にしたり、非アクティブ(音素材DBを選択する機能が生きていない状態)にして特定の音素材DBのみを適用したりすることもランダムに行えるようにしてもよい。さらには、DB配置領域DTにおいて選択されている音素材DBをアクティブ(選択されている音素材DBを検索対象とする状態)にしたり、非アクティブ(選択されている音素材DBを検索対象としない状態)にしたりすることもランダムに行えるようにしてもよい。このとき、アクティブな音素材DBに対応するDB画像は色つきのままとして、非アクティブな音素材DBに対応するDB画像はグレーアウトするなど、表示が変更されている音素材DBについてアクティブか非アクティブか認識できるようにするとよい。
[Modification 20]
In the display shown in FIG. 18 in the modified example 7 described above, the user has specified the type of the sound material DB and the time range to be searched for. For example, the user may perform a predetermined operation (random button). And the like may be designated according to a predetermined algorithm (for example, random). Also, as shown in FIG. 8, when the type of the sound material DB and the time range to be searched are determined in advance, any one of the DB images is designated and the specified DB image is selected. The type of sound material DB and the time range may be changed in accordance with a predetermined algorithm (for example, random). Furthermore, the random selection of the database enables the DB arrangement region DT itself to be active (the function for selecting the sound material DB is alive) to enable selection of the sound material DB, or to be inactive (select the sound material DB). It may also be possible to randomly apply only a specific sound material DB in a state where the function is not alive. Furthermore, the sound material DB selected in the DB arrangement area DT is made active (a state in which the selected sound material DB is a search target) or inactive (the selected sound material DB is not a search target). Or the state) may be performed at random. At this time, the DB image corresponding to the active sound material DB remains colored, and the DB image corresponding to the inactive sound material DB is grayed out. For example, whether the sound material DB whose display is changed is active or inactive. It is good to be able to recognize.
[変形例21]
上述した変形例7での図18に示す表示において、アイコン画像に該当する音がない場合には、アイコン画像をグレーアウトさせてもよい。該当する音がないとは、例えば、そのアイコン画像に対応する時刻を範囲とする音素材DB(検索対象となる音素材DB)が決められていない場合、アイコン画像に対応する特徴量データに基づいて特定部510により特定される音素材データが存在しない場合などがある。特定部510により特定される音素材データが存在しないとは、例えば、アイコン画像に対応する特徴量データに最も類似する音素材データが、しきい値として予め決められた類似度よりも類似していない場合、またカテゴリにより検索対象が絞り込まれる構成であるときに検索対象の音素材DBにそのカテゴリが含まれていない場合などがある。
[Modification 21]
In the display shown in FIG. 18 in the modified example 7 described above, when there is no sound corresponding to the icon image, the icon image may be grayed out. If there is no corresponding sound, for example, if a sound material DB (sound material DB to be searched) corresponding to the icon image is not determined, it is based on the feature amount data corresponding to the icon image. In some cases, the sound material data specified by the specifying
[変形例22]
上述した変形例7においては、発音制御システム1は、通信回線1000を介して接続された楽音処理装置10Aとサーバ装置50とにより構成されていたが、一体の装置として構成され、通信回線1000を介していない構成としてもよい。また、別体の装置であっても、楽音処理装置10Aにおける各構成の一部がサーバ装置50の構成に含まれていてもよいし、逆に、サーバ装置50の各構成の一部が楽音処理装置10Aの構成に含まれていてもよい。また、楽音処理装置10Aの記憶部15に記憶されている各種情報、およびサーバ装置50の記憶部55に記憶されている各種情報は、発音制御システム1全体としていずれかの記憶部において記憶されていればよく、楽音処理装置10Aおよびサーバ装置50以外に、これらの情報の全部または一部を記憶する記憶装置が通信回線1000に接続されていてもよい。また、これらの情報は、通信回線1000に接続可能な他の楽音処理装置10Aと共有することにより、他のユーザが使用できるようにしてもよい。
組み合わせとしては、例えば、音素材DBはサーバ装置50の記憶部55に記憶されている一方、楽音処理装置10Aにおいて、記憶部15に波形DBが記憶され、特定部510の機能が実現されてもよい。さらには、検索プログラムおよび抽出プログラムの実行は楽音処理装置10Aで実行してもよいし、楽音処理装置10Aから得た情報をもとにサーバ装置50で実行するようにしてもよい。
[Modification 22]
In the modified example 7 described above, the sound generation control system 1 is configured by the musical
As a combination, for example, while the sound material DB is stored in the
[変形例23]
上述した実施形態における各プログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供し得る。また、楽音処理装置10は、各プログラムをネットワーク経由でダウンロードしてもよい。
[Modification 23]
Each program in the above-described embodiment is provided in a state stored in a computer-readable recording medium such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), a magneto-optical recording medium, or a semiconductor memory. Can do. In addition, the musical
1…発音制御システム、10,10A…楽音処理装置、11…制御部、12…操作部、13…表示部、131…表示画面、14…インターフェイス、15…記憶部、16…音響処理部、161…スピーカ、162…マイクロフォン、100…再生機能部、110−1,110−2,110−3…データ読出部、120…音源部、130…音素材データ合成部、140−1,140−2,140−3,140−4…音響効果付与部、150…オーディオデータ合成部、160…合成音響効果付与部、170…チャンネル変換部、180…バス部、200…音素材抽出機能部、210…選択部、220…抽出部、221…音素材特定部、222…特徴量算出部、230…データ出力部、300…修正部、310…表示制御部、320…設定部、330…発音制御部、340…データ出力部、510…特定部、1000…通信回線
DESCRIPTION OF SYMBOLS 1 ... Sound
Claims (6)
前記加工をされた発音データの発音内容を示す楽音波形信号を解析して、予め決められた特徴を有する楽音波形信号の期間を特定する特定手段と、
前記特定された期間の楽音波形信号を解析して特徴量を算出する算出手段と、
前記特定された期間の楽音波形信号を示す特定データと前記算出された特徴量を示す特徴量データとを出力するデータ出力手段と
を具備することを特徴とするデータ処理装置。 Processing means for obtaining pronunciation data indicating pronunciation content and processing data for changing the pronunciation content, and processing the pronunciation data based on the processing data;
Analyzing the musical sound waveform signal indicating the sound content of the processed sound data, and specifying the period of the musical sound waveform signal having a predetermined characteristic;
A calculation means for analyzing the musical sound waveform signal of the specified period and calculating a feature amount;
A data processing apparatus comprising: data output means for outputting specific data indicating the musical tone waveform signal of the specified period and feature amount data indicating the calculated feature amount.
前記加工手段は、前記設定データに基づいて、前記取得した発音データに係る前記楽音波形信号に音響効果を付与するように前記加工をする
ことを特徴とする請求項1に記載のデータ処理装置。 The processed data includes setting data that defines the content of the acoustic effect to be given to the musical sound waveform signal,
The data processing apparatus according to claim 1, wherein the processing unit performs the processing based on the setting data so as to give an acoustic effect to the musical sound waveform signal related to the acquired sound generation data.
前記加工手段は、前記取得した発音データに係る楽音波形信号に対して、前記加工データに含まれる発音データに係る楽音波形信号を合成することにより前記加工をする
ことを特徴とする請求項1または請求項2に記載のデータ処理装置。 The processed data includes pronunciation data defining the pronunciation content,
The processing means performs the processing by synthesizing a musical sound waveform signal related to the sound generation data included in the processed data with a musical sound waveform signal related to the acquired sound generation data. The data processing apparatus according to claim 2.
前記特定手段が複数の期間を特定した場合には、
前記特定データは、前記加工をされた発音データに係る楽音波形信号と当該楽音波形信号の前記特定された複数の期間を示す時刻情報とにより、前記特定された複数の期間の楽音波形信号を示し、
前記算出手段は、前記特定された期間毎に前記特徴量を算出する
ことを特徴とする請求項1乃至請求項3のいずれかに記載のデータ処理装置。 The specific data indicates a musical sound waveform signal of the specified period by a musical sound waveform signal related to the processed sound generation data and time information indicating the specified period of the musical sound waveform signal;
When the specifying means specifies a plurality of periods,
The specific data indicates a musical sound waveform signal of the plurality of specified periods by a musical sound waveform signal related to the processed sound generation data and time information indicating the plurality of specified periods of the musical sound waveform signal. ,
The data processing apparatus according to any one of claims 1 to 3, wherein the calculation unit calculates the feature amount for each specified period.
ことを特徴とする請求項1乃至請求項3のいずれかに記載のデータ処理装置。 The data processing apparatus according to any one of claims 1 to 3, wherein the specific data indicates a musical sound waveform signal obtained by extracting a musical sound waveform signal of the specified period.
発音内容を示す発音データ、および当該発音内容を変化させるための加工データを取得して、当該発音データに対して当該加工データに基づく加工をする加工手段と、
前記加工をされた発音データの発音内容を示す楽音波形信号を解析して、予め決められた特徴を有する楽音波形信号の期間を特定する特定手段と、
前記特定された期間の楽音波形信号を解析して特徴量を算出する算出手段と、
前記特定された期間の楽音波形信号を示す特定データと前記算出された特徴量を示す特徴量データとを出力するデータ出力手段
として機能させるためのプログラム。 Computer
Processing means for obtaining pronunciation data indicating pronunciation content and processing data for changing the pronunciation content, and processing the pronunciation data based on the processing data;
Analyzing the musical sound waveform signal indicating the sound content of the processed sound data, and specifying the period of the musical sound waveform signal having a predetermined characteristic;
A calculation means for analyzing the musical sound waveform signal of the specified period and calculating a feature amount;
A program for functioning as data output means for outputting specific data indicating a musical sound waveform signal of the specified period and feature amount data indicating the calculated feature amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011242607A JP6114492B2 (en) | 2011-05-26 | 2011-11-04 | Data processing apparatus and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011118518 | 2011-05-26 | ||
JP2011118518 | 2011-05-26 | ||
JP2011242607A JP6114492B2 (en) | 2011-05-26 | 2011-11-04 | Data processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013007988A true JP2013007988A (en) | 2013-01-10 |
JP6114492B2 JP6114492B2 (en) | 2017-04-12 |
Family
ID=47675366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011242607A Active JP6114492B2 (en) | 2011-05-26 | 2011-11-04 | Data processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6114492B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016509408A (en) * | 2013-01-15 | 2016-03-24 | ヴィキ, インク.Viki, Inc. | System and method for captioning media |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6294896A (en) * | 1985-10-21 | 1987-05-01 | ヤマハ株式会社 | Musical signal generator |
JPS62129894A (en) * | 1985-11-30 | 1987-06-12 | カシオ計算機株式会社 | Waveform generator |
JPH1026986A (en) * | 1996-07-11 | 1998-01-27 | Kawai Musical Instr Mfg Co Ltd | Musical sound waveform formation method and device therefor |
JP2001092453A (en) * | 1999-09-24 | 2001-04-06 | Yamaha Corp | Re-mixing device and storage medium |
JP2005037964A (en) * | 2004-09-27 | 2005-02-10 | Yamaha Corp | Waveform generating apparatus and method |
JP2008250049A (en) * | 2007-03-30 | 2008-10-16 | Yamaha Corp | Sound conversion apparatus and program |
JP2009092926A (en) * | 2007-10-09 | 2009-04-30 | Yamaha Corp | Music piece processing device and program |
-
2011
- 2011-11-04 JP JP2011242607A patent/JP6114492B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6294896A (en) * | 1985-10-21 | 1987-05-01 | ヤマハ株式会社 | Musical signal generator |
JPS62129894A (en) * | 1985-11-30 | 1987-06-12 | カシオ計算機株式会社 | Waveform generator |
JPH1026986A (en) * | 1996-07-11 | 1998-01-27 | Kawai Musical Instr Mfg Co Ltd | Musical sound waveform formation method and device therefor |
JP2001092453A (en) * | 1999-09-24 | 2001-04-06 | Yamaha Corp | Re-mixing device and storage medium |
JP2005037964A (en) * | 2004-09-27 | 2005-02-10 | Yamaha Corp | Waveform generating apparatus and method |
JP2008250049A (en) * | 2007-03-30 | 2008-10-16 | Yamaha Corp | Sound conversion apparatus and program |
JP2009092926A (en) * | 2007-10-09 | 2009-04-30 | Yamaha Corp | Music piece processing device and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016509408A (en) * | 2013-01-15 | 2016-03-24 | ヴィキ, インク.Viki, Inc. | System and method for captioning media |
US9696881B2 (en) | 2013-01-15 | 2017-07-04 | Viki, Inc. | System and method for captioning media |
Also Published As
Publication number | Publication date |
---|---|
JP6114492B2 (en) | 2017-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5135931B2 (en) | Music processing apparatus and program | |
JP5333517B2 (en) | Data processing apparatus and program | |
WO2008065731A1 (en) | Audio processor and audio processing method | |
US9792916B2 (en) | Multifunctional audio signal generation apparatus | |
CN105637579B (en) | By switching between multiple groups Wave data come the technology of reproducing waveform | |
JP4274152B2 (en) | Music synthesizer | |
WO2008065730A1 (en) | Audio processing device and audio processing method | |
WO2017057530A1 (en) | Audio processing device and audio processing method | |
JP2015012592A (en) | Mixing management device | |
JP6114492B2 (en) | Data processing apparatus and program | |
JP2014035436A (en) | Voice processing device | |
JP2022191521A (en) | Recording and reproducing apparatus, control method and control program for recording and reproducing apparatus, and electronic musical instrument | |
JP6657866B2 (en) | Sound effect imparting device and sound effect imparting program | |
JP6474292B2 (en) | Karaoke equipment | |
JP5742472B2 (en) | Data retrieval apparatus and program | |
WO2023062865A1 (en) | Information processing apparatus, method, and program | |
JP6390094B2 (en) | Acoustic signal analysis control program and acoustic signal analysis control apparatus | |
JP2005037848A (en) | Musical sound generator and its program | |
JP6810773B2 (en) | Playback device, playback method, and program | |
WO2022249586A1 (en) | Information processing device, information processing method, information processing program, and information processing system | |
JP2009204907A (en) | Synchronous reproducing device, music piece automatic remix system, synchronous reproducing method and synchronous reproducing program | |
JP6323216B2 (en) | Parameter receiving apparatus, method and program | |
JP2003141859A (en) | Image and audio reproducing system, program and recording medium | |
JP6003861B2 (en) | Acoustic data creation device, program | |
JP2000163068A (en) | Waveform data processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140919 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150826 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160419 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160427 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20160610 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6114492 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |