JP6007645B2 - Sound waveform editing apparatus and program - Google Patents

Sound waveform editing apparatus and program Download PDF

Info

Publication number
JP6007645B2
JP6007645B2 JP2012169688A JP2012169688A JP6007645B2 JP 6007645 B2 JP6007645 B2 JP 6007645B2 JP 2012169688 A JP2012169688 A JP 2012169688A JP 2012169688 A JP2012169688 A JP 2012169688A JP 6007645 B2 JP6007645 B2 JP 6007645B2
Authority
JP
Japan
Prior art keywords
sound
editing
data
sound waveform
waveform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012169688A
Other languages
Japanese (ja)
Other versions
JP2014029387A (en
Inventor
泰史 神谷
泰史 神谷
旬 臼井
旬 臼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2012169688A priority Critical patent/JP6007645B2/en
Publication of JP2014029387A publication Critical patent/JP2014029387A/en
Application granted granted Critical
Publication of JP6007645B2 publication Critical patent/JP6007645B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、音素材を連結した音波形データを編集する音波形編集装置およびプログラムに関する。   The present invention relates to a sound waveform editing apparatus and a program for editing sound waveform data in which sound materials are connected.

断片的な音素材をデータベースに記憶し、この音素材を組み合わせて楽音等を発生する技術がある。特許文献1には、このデータベースに登録する音素材を、曲の音波形データから予め決められたアルゴリズムにしたがって抽出する技術が開示されている。そして、最近では、既存の曲の音波形の中から所望の区間の音波形を取り出し、その区間の音波形を構成する各種の音素材をデータベースに登録された他の音素材により置換し、所望のフレーズの音波形を編集する技術が提案されている(例えば非特許文献1参照)。   There is a technology for storing fragmentary sound materials in a database and generating musical sounds by combining these sound materials. Patent Document 1 discloses a technique for extracting a sound material registered in this database from a sound waveform data of a song according to a predetermined algorithm. Recently, the sound waveform of a desired section is extracted from the sound waveforms of an existing song, and various sound materials constituting the sound waveform of the section are replaced with other sound materials registered in the database, A technique for editing the sound waveform of the phrase is proposed (see Non-Patent Document 1, for example).

特開2010−191337号公報JP 2010-191337 A

Y2 PROJECT SONOTE、[平成24年7月22日検索]、インターネット<URL: http://www.y2lab.com/project/sonote/>Y2 PROJECT SONOT, [Search on July 22, 2012], Internet <URL: http: // www. y2lab. com / project / sonote />

ところで、所望のフレーズを得るために、既存の曲の所望の区間の音波形の編集を行っている際、その区間の近傍の区間の音波形の編集を行うことが必要になる場合がある。このような場合、従来の技術の下では、曲の中から編集対象とする区間を選択する作業からやり直す必要があり、その作業が煩わしいという問題があった。   By the way, in order to obtain a desired phrase, when editing a sound waveform of a desired section of an existing song, it may be necessary to edit a sound waveform of a section near the section. In such a case, under the conventional technique, there is a problem that it is necessary to start over from the work of selecting a section to be edited from the music, and the work is troublesome.

本発明は、このような課題に鑑みてなされたものであり、編集対象とする区間を選択して音波形の編集を開始した後、編集対象とする区間を容易に変更することができる音波形編集装置を提供することを目的とする。   The present invention has been made in view of such problems, and after selecting a section to be edited and starting sound waveform editing, a sound waveform that can easily change the section to be edited. An object is to provide an editing device.

この発明は、操作手段を用いた取り込み指示操作により、記憶手段に記憶された音波形データのうち一部の区間が指示された場合、この取り込み指示操作により指示された指定区間内の音波形データおよびこの音波形データの後方または前方に連続した拡張区間内の音波形データを示す音波形構成データをバッファに格納する編集対象取り込み手段と、前記バッファに格納された音波形構成データのうち予め指定された編集対象区間内のデータを、前記操作手段を用いた編集操作に従って編集する編集手段と、前記操作手段を用いたシフト指示操作に応じて、前記編集対象区間を時間軸方向にシフトする編集対象シフト手段とを具備することを特徴とする音波形編集装置を提供する。   In the present invention, when a part of the sound waveform data stored in the storage unit is instructed by the capturing instruction operation using the operation unit, the sound waveform data in the designated section instructed by the capturing instruction operation And an editing object capturing means for storing sound waveform configuration data indicating the sound waveform data in the extended section continuous to the rear or front of the sound waveform data in the buffer, and pre-designation of the sound waveform configuration data stored in the buffer Editing means for editing the data in the editing target section according to the editing operation using the operating means, and editing for shifting the editing target section in the time axis direction according to the shift instruction operation using the operating means. A sound wave editing apparatus comprising an object shift means.

かかる発明によれば、操作手段を用いた取り込み指示操作が行われた場合、その取り込み指示操作により指示された指定区間とその指定区間の後方または前方の拡張区間の音波形データを示す音波形構成データがバッファに格納される。そして、編集手段は、バッファに格納された音波形構成データのうち予め指定された編集対象区間内のデータを、操作手段を用いた編集操作に従って編集する。また、編集対象シフト手段は、操作手段を用いたシフト指示操作に応じて、編集対象区間を時間軸方向にシフトする。従って、この発明によれば、音波形構成データを取り込んでその編集を開始した後、容易に編集対象区間を変更することができる。   According to this invention, when a capturing instruction operation using the operating means is performed, a sound waveform configuration that indicates sound waveform data of a specified section instructed by the capturing instruction operation and an extended section behind or in front of the specified section. Data is stored in the buffer. Then, the editing means edits the data in the editing target section specified in advance among the sound waveform configuration data stored in the buffer according to the editing operation using the operation means. Further, the edit target shift means shifts the edit target section in the time axis direction in response to a shift instruction operation using the operation means. Therefore, according to the present invention, it is possible to easily change the editing target section after taking in the sound waveform configuration data and starting the editing.

この発明の一実施形態である音波形編集装置の構成を示すブロック図である。It is a block diagram which shows the structure of the sound wave editing apparatus which is one Embodiment of this invention. 同実施形態におけるデフォルトデータベースおよびユーザデータベースA〜Dと、曲データベース内の曲データファイルとの関係を示す図である。It is a figure which shows the relationship between the default database and user database AD in the same embodiment, and the music data file in a music database. 同実施形態における表示部の画面遷移を例示する図である。It is a figure which illustrates the screen transition of the display part in the embodiment. 同実施形態におけるシーンデータの構成を示す図である。It is a figure which shows the structure of the scene data in the same embodiment. 同実施形態における表示部の画面遷移を例示する図である。It is a figure which illustrates the screen transition of the display part in the embodiment. 同実施形態における表示部の画面遷移を例示する図である。It is a figure which illustrates the screen transition of the display part in the embodiment. 同実施形態のシャッフルモードでの動作を説明する図である。It is a figure explaining the operation | movement in the shuffle mode of the embodiment.

以下、図面を参照し、この発明の実施の形態を説明する。
図1はこの発明の一実施形態である音波形編集装置10の構成を示すブロック図である。本実施形態による音波形編集装置10は、例えば携帯電話端末であり、OS(Operating System)上で特定のアプリケーションプログラムを実行することにより、DAW(Digital Audio Workstation)と呼ばれる機能を提供する装置である。なお、この発明による音波形編集装置は、パーソナルコンピュータ、PDA(Personal Digital Assistant)、タブレット端末などの情報処理装置であってもよい。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a sound waveform editing apparatus 10 according to an embodiment of the present invention. The sound waveform editing device 10 according to the present embodiment is a mobile phone terminal, for example, and is a device that provides a function called DAW (Digital Audio Workstation) by executing a specific application program on an OS (Operating System). . The sound wave editing apparatus according to the present invention may be an information processing apparatus such as a personal computer, a PDA (Personal Digital Assistant), or a tablet terminal.

図1に示すように、本実施形態による音波形編集装置10は、制御部11と、操作部12と、表示部13と、インターフェイス14と、記憶部15と、音響処理部16と、センサ部17とを有する。これらの各構成要素はバスを介して接続されている。また、音響処理部16には、スピーカ161およびマイクロフォン162が接続されている。   As shown in FIG. 1, the sound wave editing device 10 according to the present embodiment includes a control unit 11, an operation unit 12, a display unit 13, an interface 14, a storage unit 15, an acoustic processing unit 16, and a sensor unit. 17. Each of these components is connected via a bus. In addition, a speaker 161 and a microphone 162 are connected to the acoustic processing unit 16.

制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)などを有する。制御部11は、ROMまたは記憶部15に記憶された各種プログラムを実行することにより、バスにより接続された各部の制御を行い、各種機能を実現する。   The control unit 11 includes a central processing unit (CPU), a random access memory (RAM), and a read only memory (ROM). The control unit 11 executes various programs stored in the ROM or the storage unit 15 to control each unit connected by the bus and realize various functions.

操作部12は、ユーザによる操作を受け付ける操作ボタンなどの操作子を有し、操作子に対する操作の内容を示す操作データを制御部11に出力する。また、操作部12は、表示部13とともにタッチパネルを構成しており、このタッチパネルにおける押圧位置を検出する押圧位置検出センサを備えている。この操作部12を介してユーザから与えられる指示が制御部11に入力される。表示部13は、液晶ディスプレイなどの表示デバイスである。この表示部13は、上記操作部12とともにタッチパネルを構成しており、制御部11による制御の下、各種のメニュー、ソフトボタン、音波形等の表示を行う。   The operation unit 12 has an operation element such as an operation button that receives an operation by the user, and outputs operation data indicating the content of the operation on the operation element to the control unit 11. The operation unit 12 constitutes a touch panel together with the display unit 13, and includes a pressing position detection sensor that detects a pressing position on the touch panel. An instruction given from the user via the operation unit 12 is input to the control unit 11. The display unit 13 is a display device such as a liquid crystal display. The display unit 13 constitutes a touch panel together with the operation unit 12, and displays various menus, soft buttons, sound waveforms, and the like under the control of the control unit 11.

インターフェイス14は、外部装置と有線または無線により通信し、各種データの送受信をする機能を有する。インターフェイス14は、外部装置から入力された各種データを制御部11に出力する一方、制御部11からの制御により、外部装置へ各種データを出力する。   The interface 14 has a function of communicating with an external device by wire or wireless and transmitting / receiving various data. The interface 14 outputs various data input from the external device to the control unit 11, and outputs various data to the external device under the control of the control unit 11.

マイクロフォン162およびスピーカ161は、この音波形編集装置10が携帯電話端末としての機能である通話機能を果たすとき、通話相手からの受話音声を出力するための手段およびユーザからの送話音声を受け取るための手段として機能する。また、スピーカ161は、この音波形編集装置10が曲やフレーズの再生を行うとき、曲やフレーズの音波形信号を音として出力する手段として機能する。音響処理部16は、DSP(Digital Signal Processor)などにより構成されており、制御部11による制御の下、スピーカ161を介して外部に出力する音信号、マイクロフォン162を介して外部から入力される音信号に対して、ダイナミックレンジ圧縮、フィルタ処理等の各種の信号処理を施す手段である。   When the sound wave editing device 10 performs a telephone call function as a mobile phone terminal, the microphone 162 and the speaker 161 receive means for outputting a received voice from the other party and a transmitted voice from the user. It functions as a means. The speaker 161 functions as a means for outputting a sound waveform signal of a song or phrase as a sound when the sound waveform editing apparatus 10 reproduces a song or a phrase. The sound processing unit 16 is configured by a DSP (Digital Signal Processor) or the like. Under the control of the control unit 11, a sound signal output to the outside through the speaker 161 and a sound input from the outside through the microphone 162. It is means for performing various signal processing such as dynamic range compression and filter processing on the signal.

センサ部17は、具体的には3軸の加速度センサである。本実施形態では、音波形編集装置10の筐体を振る操作が行われた場合に、制御部11がこのセンサ部17の出力信号に基づいて振る操作の発生を検知する。   The sensor unit 17 is specifically a triaxial acceleration sensor. In the present embodiment, when an operation of shaking the casing of the sound waveform editing device 10 is performed, the control unit 11 detects the occurrence of the shaking operation based on the output signal of the sensor unit 17.

記憶部15は、ハードディスク、フラッシュメモリなどの不揮発性メモリであって、制御部11により実行される各種のプログラムと、それらのプログラムにより使用される各種のデータを記憶する。また、記憶部15内の所定の記憶領域は、制御部11が各種プログラムを実行する際のワークエリアとして使用される。以下、この記憶部15に記憶されたプログラム類、データ類について説明する。   The storage unit 15 is a nonvolatile memory such as a hard disk or a flash memory, and stores various programs executed by the control unit 11 and various data used by these programs. The predetermined storage area in the storage unit 15 is used as a work area when the control unit 11 executes various programs. Hereinafter, programs and data stored in the storage unit 15 will be described.

曲データベース110は、インターフェイス14を介してインターネット上のサイト等からダウンロードされた曲データファイルの集合体である。ここで、曲データファイルは、曲やフレーズ等の音波形のサンプルデータ列である音波形データを含む。   The song database 110 is a collection of song data files downloaded from a site on the Internet or the like via the interface 14. Here, the song data file includes sound waveform data that is a sample data string of a sound waveform such as a song or a phrase.

音素材データベース120は、曲データベース110内の各曲データファイルの音波形データを分割した断片である音素材に関するデータの集合体である。音素材データベース120は、1つの音素材を対象とするデータとして、特定データと特徴量データを含む。ここで、特定データは、対象とする音素材の音波形データが含まれている曲データファイルを特定する情報(ファイル名やアドレス等)と、曲データファイルが示す曲内での当該音素材の波形の開始時刻および終了時刻を示す情報とを含む。また、特徴量データは、対象とする音素材の各種の特徴量(例えば、MFCC(Mel Frequency Cepstrum Coefficient)やスペクトラルエナジ等)を示す情報と、その特徴量に基づいて決定されたアタック、ダスト等のカテゴリとを含む。   The sound material database 120 is a collection of data related to sound material that is a fragment obtained by dividing the sound waveform data of each music data file in the music database 110. The sound material database 120 includes specific data and feature amount data as data for one sound material. Here, the specific data includes information (file name, address, etc.) for specifying a song data file containing sound waveform data of the target sound material, and the sound material in the song indicated by the song data file. Information indicating the start time and end time of the waveform. The feature data includes information indicating various feature values of the target sound material (for example, MFCC (Mel Frequency Cepstrum Coefficient), spectral energy, etc.), and attacks, dust, etc. determined based on the feature values. And categories.

解析プログラム130は、曲データベース110内の各曲データファイルに基づいて、各種の音素材の特定データと特徴量データを生成し、この特定データと特徴量データを追加することにより音素材データベース120を更新するプログラムである。さらに詳述すると、解析プログラム130は、例えば新たな曲データファイルが曲データベース110に加わるとき、その曲データファイルが示す曲の音波形を例えばオンセット(音のエネルギーが急激に立ち上がるタイミング)において音素材に分割する。そして、各音素材についての特定データを生成するとともに、各音素材を解析することにより各音素の各種の特徴量を算出し、かつ、特徴量に基づいて各音素材のカテゴリを決定し、各音素材の特徴量データを生成する。そして、各音素材の特定データおよび特徴量データを音素材データベース120に加えることにより音素材データベース120を更新するのである。なお、この新規な曲データファイルの曲データベース110への加入に伴う音素材データベース120の更新は、制御部11がバックグラウンド処理として実行するようにしてもよい。   The analysis program 130 generates specific data and feature amount data of various sound materials based on each song data file in the song database 110, and adds the specific data and feature amount data to create the sound material database 120. It is a program to update. More specifically, for example, when a new song data file is added to the song database 110, the analysis program 130 changes the sound waveform of the song indicated by the song data file, for example, at onset (timing when the energy of the sound suddenly rises). Divide into materials. Then, specific data for each sound material is generated, and each sound material is analyzed to calculate various feature values of each phoneme, and a category of each sound material is determined based on the feature values, Generates feature data of sound material. Then, the sound material database 120 is updated by adding the specific data and feature amount data of each sound material to the sound material database 120. It should be noted that the update of the sound material database 120 accompanying the addition of the new song data file to the song database 110 may be executed by the control unit 11 as background processing.

編集プログラム140は、曲データベース110内の所望の曲データファイルを選択し、この選択した曲データファイルが示す音波形の所望の区間を選択し、この選択した区間の音波形を構成する各音素材のうち1または複数の音素材を他の音素材に置き換えた音波形を有するフレーズを生成するプログラムである。この編集プログラム140は、各々サブルーチンである編集対象取り込み部141と、編集部142と、編集対象シフト部143と、再生部144とを有する。   The editing program 140 selects a desired song data file in the song database 110, selects a desired section of the sound waveform indicated by the selected song data file, and each sound material constituting the sound waveform of the selected section. Is a program that generates a phrase having a sound waveform in which one or a plurality of sound materials are replaced with other sound materials. The editing program 140 includes an editing target fetch unit 141, an editing unit 142, an editing target shift unit 143, and a playback unit 144, each of which is a subroutine.

ここで、編集対象取り込み部141は、ユーザに所望の曲データファイルを選択させるとともに、その曲データファイルが示す音波形の所望の区間を本ループ(指定区間)として選択させ、この本ループの音波形データおよびこの本ループの後方に連続した所定時間長のネクストループ(拡張区間)内の音波形データを曲データファイルから読み出す。そして、編集対象取り込み部141は、音素材データベース120を参照することにより、本ループおよびネクストループの各音波形データからシーンデータを構成するデータ(フレーズ、当該フレーズの音素材、類似する音素材等)を生成し、記憶部15内に設定されたシーンデータバッファ151に格納する。また、編集対象取り込み部141は、本ループの音波形データを記憶部15内に設定された波形データバッファ152に格納する。そして、ユーザからの登録指示に基づいて、シーンデータバッファ151に格納されている情報をシーンデータとして記憶部15内のシーンデータベース160に記憶する。ここで、シーンデータは、音波形データを構成する音素材を示す音素材指定情報を含む音波形構成データであるが、その構成および生成方法については、説明の重複を避けるため、本実施形態の動作説明において詳細を明らかにする。   Here, the editing target capturing unit 141 causes the user to select a desired song data file, and to select a desired section of the sound waveform indicated by the song data file as the main loop (designated section). Shape data and sound waveform data in the next loop (extended section) having a predetermined time length continuous behind the main loop are read from the music data file. Then, the editing target capturing unit 141 refers to the sound material database 120, thereby making data (phrase, sound material of the phrase, similar sound material, etc.) constituting scene data from the sound waveform data of the main loop and the next loop. ) And stored in the scene data buffer 151 set in the storage unit 15. The editing target capturing unit 141 stores the sound waveform data of this loop in the waveform data buffer 152 set in the storage unit 15. Then, based on a registration instruction from the user, information stored in the scene data buffer 151 is stored in the scene database 160 in the storage unit 15 as scene data. Here, the scene data is sound waveform configuration data including sound material designation information indicating the sound material constituting the sound waveform data, but the configuration and generation method thereof are described in this embodiment in order to avoid duplication of explanation. Details will be clarified in the operation description.

本実施形態において編集対象取り込み部141は、ユーザが行う操作部12の操作に応じて、後述するシーンデータベース160内のシーンデータのうち任意のものを読み出し、シーンデータバッファ151に格納する場合がある。この場合、編集対象取り込み部141は、音素材データベース120を参照することにより、シーンデータバッファ151内のシーンデータのうち本ループに対応したデータに基づいて音波形データを生成し、波形データバッファ152に格納する。   In the present embodiment, the editing target capturing unit 141 may read out arbitrary scene data from a scene database 160 described later and store it in the scene data buffer 151 in accordance with the operation of the operation unit 12 performed by the user. . In this case, the editing target capturing unit 141 refers to the sound material database 120 to generate sound waveform data based on data corresponding to this loop among the scene data in the scene data buffer 151, and the waveform data buffer 152. To store.

編集部142は、シーンデータバッファ151に記憶されたシーンデータに基づいて、本ループまたはネクストループのうちユーザによって編集対象区間として選択された区間の音波形データを生成して表示部13に表示させる一方、ユーザが操作部12を利用して行う編集操作に従って、シーンデータの編集を行うサブルーチンである。ここで、シーンデータの編集とは、具体的には、シーンデータの音素材指定情報が示す音素材を他の音素材に置き換える操作である。そして、編集部142は、このシーンデータの編集を行った場合に、音素材データベース120を参照し、編集後のシーンデータに対応した内容となるように波形データバッファ152内の音波形データの音素材の入れ替えを行う。基本的に編集部142は、操作部12の操作に従って、シーンデータが示す音素材の他の音素材への置き換えを行う。しかし、操作部12の操作により、シャッフルモードが設定された場合、編集部142は、センサ部17の出力信号を監視し、筐体を振る操作が行われたのを検知したとき、擬似乱数を発生し、この擬似乱数に応じて、シーケンスデータが示す音素材をこれと類似な他の音素材に置き換える。以上が編集部142によって行われるシーンデータの編集の概要である。そして、編集部142は、ユーザが操作部12を利用して登録操作を行った場合、シーンデータバッファ151内のシーンデータをシーンデータベース160に格納する。   Based on the scene data stored in the scene data buffer 151, the editing unit 142 generates sound waveform data of a section selected as a section to be edited by the user from the main loop or the next loop and displays the sound waveform data on the display unit 13. On the other hand, this is a subroutine for editing scene data in accordance with an editing operation performed by the user using the operation unit 12. Here, the editing of the scene data is specifically an operation of replacing the sound material indicated by the sound material designation information of the scene data with another sound material. Then, the editing unit 142 refers to the sound material database 120 when the scene data is edited, and the sound of the sound waveform data in the waveform data buffer 152 so that the content corresponds to the edited scene data. Replace the material. Basically, the editing unit 142 replaces the sound material indicated by the scene data with another sound material in accordance with the operation of the operation unit 12. However, when the shuffle mode is set by the operation of the operation unit 12, the editing unit 142 monitors the output signal of the sensor unit 17, and when detecting that the operation of shaking the housing is performed, the editing unit 142 In response to this pseudo-random number, the sound material indicated by the sequence data is replaced with another similar sound material. The above is an outline of scene data editing performed by the editing unit 142. Then, when the user performs a registration operation using the operation unit 12, the editing unit 142 stores the scene data in the scene data buffer 151 in the scene database 160.

編集対象シフト部143は、ユーザが操作部12を利用して行うシフト操作に応じて、編集対象区間を本ループからネクストループへ、またはネクストループから本ループへとシフトするサブルーチンである。このシフト操作は、タッチパネル上の所定の位置をタップする簡単な操作である。本実施形態では、このシフト操作を行うのみによりシーンデータの編集対象区間を容易に変更することができる。この点に本実施形態の最大の特徴がある。   The editing target shift unit 143 is a subroutine that shifts the editing target section from the main loop to the next loop or from the next loop to the main loop in accordance with a shift operation performed by the user using the operation unit 12. This shift operation is a simple operation of tapping a predetermined position on the touch panel. In the present embodiment, the edit target section of the scene data can be easily changed only by performing this shift operation. This is the greatest feature of this embodiment.

再生部144は、音波形データを音響処理部16およびスピーカ161を介して音として出力させるサブルーチンである。本実施形態による音波形編集装置10は、動作モードとして、曲再生モードと、フレーズ編集モードを有している。曲再生モードにおいて、再生部144は、曲データベース110内の各曲データファイルのうち操作部12の操作により指定された曲データファイルから音波形データを読み出し、音響処理部16およびスピーカ161を介して音として出力させる。また、フレーズ編集モードにおいて、再生部144は、波形データバッファ152から音波形データを繰り返し読み出し、音響処理部16およびスピーカ161を介して音として出力させる。   The reproduction unit 144 is a subroutine for outputting sound waveform data as sound via the sound processing unit 16 and the speaker 161. The sound waveform editing apparatus 10 according to the present embodiment has a music playback mode and a phrase editing mode as operation modes. In the song playback mode, the playback unit 144 reads the sound waveform data from the song data file specified by the operation of the operation unit 12 among the song data files in the song database 110, and passes through the sound processing unit 16 and the speaker 161. Output as sound. In the phrase editing mode, the reproduction unit 144 repeatedly reads out the sound waveform data from the waveform data buffer 152 and outputs the sound waveform data as sound via the acoustic processing unit 16 and the speaker 161.

シーンデータベース160は、シーンデータの集合体である。本実施形態におけるシーンデータベース160は、デフォルトデータベースとユーザデータベースA〜Dとに分かれている。図2は、このデフォルトデータベースおよびユーザデータベースA〜Dと曲データベース110内の各曲データファイルとの関係を示すものである。   The scene database 160 is a collection of scene data. The scene database 160 in this embodiment is divided into a default database and user databases A to D. FIG. 2 shows the relationship between the default database and user databases A to D and each song data file in the song database 110.

本実施形態による音波形編集装置10において、曲データベース110は、編集プログラム140とは別の音楽再生アプリケーションプログラムのアクセス対象となっている。この音楽再生アプリケーションでは、ユーザからの指示に従い、曲データベース110の各曲データファイルを複数のグループに分けて管理している。そして、ユーザが音楽再生を行う場合に、音楽再生アプリケーションは、図2に示すような各グループのメニューからなるプレイリストを表示部3に表示させ、所望の曲データファイルが属するグループをユーザに選択させ、その後、そのグループに属する各曲データファイルの中から所望の曲データファイルを選択させる。   In the sound wave editing apparatus 10 according to the present embodiment, the song database 110 is an access target of a music playback application program different from the editing program 140. In this music reproduction application, each song data file in the song database 110 is divided into a plurality of groups and managed in accordance with an instruction from the user. When the user performs music playback, the music playback application causes the display unit 3 to display a playlist including menus of groups as shown in FIG. 2, and the user selects a group to which a desired song data file belongs. After that, a desired music data file is selected from the music data files belonging to the group.

ユーザデータベースA〜Dは、ユーザが作成したシーンデータを記憶し、かつ、読み出して再利用できるようにするためのデータベースであって、ユーザの好みに合ったフレーズ(シーンデータ)の生成を可能にするために用意されたデータベースである。   User databases A to D are databases for storing scene data created by the user and allowing them to be read out and reused, and can generate phrases (scene data) that suit the user's preference. It is a database prepared to do.

本実施形態では、音楽再生アプリケーションが提供するプレイリストを構成する各グループに対して、ユーザが操作部12の操作により名称を付けることができる。この場合、プレイリストのタイトルに対応する曲データ群のデータファイルを利用して、類似する音素片の抽出を行うことができるようになる。そして、本実施形態では、プレイリスト中のあるグループに特定の名称を付けた場合、そのグループがユーザデータベースA〜Dのいずれかに対応付けられる。   In the present embodiment, the user can name each group constituting the playlist provided by the music playback application by operating the operation unit 12. In this case, similar phoneme segments can be extracted using the data file of the song data group corresponding to the playlist title. In the present embodiment, when a specific name is given to a certain group in the playlist, the group is associated with one of the user databases A to D.

以後、フレーズ編集モードにおいて、ユーザが例えばユーザデータベースAを指定した場合、編集対象取り込み部141は、プレイリストの対応するグループに含まれる楽曲について、曲データベース110における全てのシーンデータが示す音素材に対する類似音素材を探索し、既存の音素材と置き換える候補としてユーザに提示する。また、ユーザが操作部12を利用して登録操作を行った場合、シーンデータバッファ151内のシーンデータをシーンデータベース160のユーザデータベースAに格納する。   Thereafter, in the phrase editing mode, for example, when the user designates the user database A, the editing target import unit 141 applies to the sound material indicated by all scene data in the song database 110 for the songs included in the corresponding group of the playlist. Search for similar sound material and present it to the user as a candidate to replace the existing sound material. When the user performs a registration operation using the operation unit 12, the scene data in the scene data buffer 151 is stored in the user database A of the scene database 160.

また、フレーズ編集モードにおいて、ユーザがデフォルトデータベースを指定した場合、編集対象取り込み部141は、曲データベース110内の全ての曲データファイルを対象として、シーンデータが示す音素材に対する類似音素材を探索し、既存の音素材と置き換える候補としてユーザに提示する。また、ユーザが操作部12を利用して登録操作を行った場合、シーンデータバッファ151内のシーンデータをシーンデータベース160のデフォルトデータベースに格納する。
以上が本実施形態による音波形編集装置10の構成である。
In the phrase editing mode, when the user designates a default database, the editing target capturing unit 141 searches all music data files in the music database 110 for similar sound materials for the sound material indicated by the scene data. , Present it to the user as a candidate to replace the existing sound material. When the user performs a registration operation using the operation unit 12, the scene data in the scene data buffer 151 is stored in the default database of the scene database 160.
The above is the configuration of the sound waveform editing apparatus 10 according to the present embodiment.

次に本実施形態の動作を説明する。図3(a)〜(g)は本実施形態における表示部13の画面遷移を示すものである。図3(a)に示す例では、ユーザが操作部12の操作により曲データベース110内の所望の曲データファイルを選択し、その再生を再生部144に行わせている。再生部144は、ユーザにより指示された曲データファイルから音波形データを読み出して表示部13の波形表示エリア201に表示させ、かつ、その音波形データを音響処理部16およびスピーカ161を介すことにより音として出力している。また、再生部144は、現在放音中の音波形データの位置を示すシークバー201aを表示させる。また、再生部144は、波形表示エリア201の下側のソフトボタンエリア202に“×1”〜“×8”の文字を含む取り込み指示ボタンを表示させる。   Next, the operation of this embodiment will be described. 3A to 3G show screen transitions of the display unit 13 in the present embodiment. In the example shown in FIG. 3A, the user selects a desired song data file in the song database 110 by operating the operation unit 12, and causes the playback unit 144 to play it. The reproduction unit 144 reads out the sound waveform data from the music data file instructed by the user and displays it in the waveform display area 201 of the display unit 13, and passes the sound waveform data through the sound processing unit 16 and the speaker 161. Is output as sound. In addition, the reproduction unit 144 displays a seek bar 201a indicating the position of the sound waveform data currently being emitted. In addition, the playback unit 144 displays a capture instruction button including characters “× 1” to “× 8” in the soft button area 202 below the waveform display area 201.

ユーザは、現在再生中の曲データファイル内の所望の区間の音波形データを用いてフレーズの音波形データを生成する場合、操作部12の操作によりフレーズ編集モードの設定操作を行う。また、ユーザは、操作部12の操作により、シーンデータベース160におけるデフォルトデータベース、ユーザデータベースA〜Dのうちシーンデータの生成のために参照し、編集後のシーンデータの格納先とするデータベースを選択する。そして、ユーザは、表示部13の表示画面においてシークバー201aが曲中の所望の区間の開始位置に到達しようとするとき、例えば“×4”の文字を含む取り込み指示ボタンにタッチする。   When generating the sound waveform data of the phrase using the sound waveform data of a desired section in the currently reproduced music data file, the user performs the phrase edit mode setting operation by operating the operation unit 12. In addition, the user refers to the default database in the scene database 160 and the user databases A to D to generate scene data by operating the operation unit 12, and selects a database as a storage destination of the edited scene data. . Then, when the seek bar 201a tries to reach the start position of a desired section in the song on the display screen of the display unit 13, the user touches a capture instruction button including, for example, a character “× 4”.

これにより編集対象取り込み部141は、再生中の曲データファイル内の音波形データにおいて、シークバー201aが示す再生位置の最近傍のオンセット位置を求め、そのオンセット位置から始まる4拍分の区間を本ループとし、その後の4拍分の区間をネクストループとする。そして、編集対象取り込み部141は、本ループの音波形データとネクストループの音波形データを曲データファイルから読み出し、各音波形データからシーンデータを生成してシーンデータバッファ151へ格納する。また、編集対象取り込み部141は、本ループの音波形データを波形データバッファ152へ格納する。   As a result, the edit target capturing unit 141 obtains the nearest onset position of the reproduction position indicated by the seek bar 201a in the sound waveform data in the song data file being reproduced, and obtains an interval of 4 beats starting from the onset position. Let this loop be the next loop. Then, the editing target capturing unit 141 reads the sound waveform data of the main loop and the sound waveform data of the next loop from the music data file, generates scene data from each sound waveform data, and stores the scene data in the scene data buffer 151. The editing target capturing unit 141 stores the sound waveform data of this loop in the waveform data buffer 152.

そして、編集部142は、図3(b)に示すように、波形データバッファ152内の本ループの音波形データを表示部13の波形表示エリア201に表示させ、シーンデータバッファ151内のシーンデータのうち本ループに対応したデータの内容を波形表示エリア201の下側の音構成表示エリア203に表示させる。また、再生部144は、波形データバッファ152内の本ループの音波形データを繰り返し読み出して音響処理部16に送り、スピーカ161から音として出力させる。   Then, as shown in FIG. 3B, the editing unit 142 displays the sound waveform data of the main loop in the waveform data buffer 152 in the waveform display area 201 of the display unit 13, and the scene data in the scene data buffer 151. The contents of the data corresponding to this loop are displayed in the sound composition display area 203 below the waveform display area 201. Further, the reproduction unit 144 repeatedly reads out the sound waveform data of the main loop in the waveform data buffer 152 and sends it to the acoustic processing unit 16 to output it from the speaker 161 as sound.

ここで、図4を参照し、シーンデータバッファ151内のシーンデータおよびその生成方法について説明する。図4に示すように、シーンデータは、本ループに対応した部分と、ネクストループに対応した部分とにより構成されている。   Here, the scene data in the scene data buffer 151 and the generation method thereof will be described with reference to FIG. As shown in FIG. 4, the scene data includes a part corresponding to the main loop and a part corresponding to the next loop.

シーンデータの本ループに対応した部分において、曲データファイル指定情報は、本ループの音波形データが属する曲データファイルの所在を示す情報(例えば曲データベース110内での当該曲データファイルのIDまたはアドレス情報等)である。   In the portion corresponding to the main loop of the scene data, the music data file designation information is information indicating the location of the music data file to which the sound waveform data of the main loop belongs (for example, the ID or address of the music data file in the music database 110). Information).

曲内開始時刻および曲内終了時刻は、当該曲データファイルが示す曲内での本ループの開始点の相対時刻および終了点の相対時刻である。曲内開始時刻は、上述した通り、取り込み指示ボタンへのタッチが行われた場合、再生中の曲データファイル内の音波形データにおいて、シークバー201aが示す再生位置の最近傍のオンセット位置の相対時刻となる。また、曲内終了時刻は、この例では、曲内開始時刻から4拍分の時間だけ後の時刻となる。   The in-music start time and in-music end time are the relative time of the start point and the end point of this loop in the music indicated by the music data file. As described above, the in-music start time is relative to the onset position nearest to the reproduction position indicated by the seek bar 201a in the sound waveform data in the music data file being reproduced when the import instruction button is touched. It is time. In this example, the in-music end time is a time that is four beats after the in-music start time.

音素材指定情報は、本ループの音波形データに含まれている各音素材を指定する情報である。図示の例では、音素材1から音素材8までの8個の音素材が本ループの音波形データに含まれている。本ループのデータでは、この音素材指定情報の後に、各音素材の構成情報と、各音素材の構成情報において定義された類似音素材の構成情報が続く。   The sound material designation information is information for designating each sound material included in the sound waveform data of this loop. In the illustrated example, eight sound materials from sound material 1 to sound material 8 are included in the sound waveform data of this loop. In the data of this loop, this sound material designation information is followed by the configuration information of each sound material and the configuration information of the similar sound material defined in the configuration information of each sound material.

音素材1の構成情報において、ループ内開始時刻およびループ内終了時刻は、本ループ内における音素材1の開始点の相対時刻および終了点の相対時刻である。音素材アドレス情報は、音素材データベース120内において音素材1の特定データおよび特徴量データを識別するためのアドレス情報である。類似音素材指定情報は、音素材データベース120により定義された音素材であって、音素材1に類似した音素材である。本実施形態では、音素材1に類似した音素材として、類似音素材1〜4が類似音素材指定情報により指定される。類似カテゴリ指定情報は、音素材カテゴリに類似する音響的特徴を持ったカテゴリである。本実施形態では、本実施形態では、音素材カテゴリに類似する特徴を持ったカテゴリとして、類似カテゴリ1〜4が類似カテゴリ指定情報により指定されている。選択音素材は、音素材1の区間(すなわち、ループ内開始時刻からループ内終了時刻までの区間)において発生するものとしてユーザによって現在選択されている音素材を示す情報であり、本実施形態では1〜5までの数値をとり得る。選択音素材が1である場合、音素材アドレス情報により特定される音素材1がユーザによって選択されている音素材である。選択音素材が2〜5である場合、類似音素材1〜4がユーザによって選択されている音素材である。   In the configuration information of the sound material 1, the start time in the loop and the end time in the loop are the relative time of the start point and the end point of the sound material 1 in this loop. The sound material address information is address information for identifying specific data and feature amount data of the sound material 1 in the sound material database 120. The similar sound material designation information is a sound material defined by the sound material database 120 and is a sound material similar to the sound material 1. In the present embodiment, similar sound materials 1 to 4 are designated by the similar sound material designation information as sound materials similar to the sound material 1. The similar category designation information is a category having an acoustic feature similar to the sound material category. In the present embodiment, in this embodiment, similar categories 1 to 4 are designated by the similar category designation information as categories having characteristics similar to the sound material category. The selected sound material is information indicating the sound material that is currently selected by the user as being generated in the section of the sound material 1 (that is, the section from the start time in the loop to the end time in the loop). Values from 1 to 5 can be taken. When the selected sound material is 1, the sound material 1 specified by the sound material address information is the sound material selected by the user. When the selected sound material is 2 to 5, the similar sound materials 1 to 4 are sound materials selected by the user.

本ループを構成する音素材1、2、…の各構成情報は、例えば次のような方法により生成される。(1)音素材データベース120内の各音素材の各特定データの中から本ループが属する曲データファイルに対応したものを選択する。   The configuration information of the sound materials 1, 2,... Constituting the loop is generated by the following method, for example. (1) From the specific data of each sound material in the sound material database 120, the one corresponding to the music data file to which this loop belongs is selected.

(2)この選択した特定データ群の中から、本ループの曲内開始時刻から曲内終了時刻までの区間内の開始時刻および終了時刻を持つものを選択して時系列順に並べる。これにより本ループに属する音素材1、音素材2、…の各々の曲内開始時刻から曲内終了時刻を特定する各特定データが得られる。これらの特定データに基づいて、音素材1、音素材2、…の各々のループ内開始時刻およびループ内終了時刻を算出する。また、これらの特定データを特定する情報(アドレスまたはID)が音素材1、音素材2、…の音素材アドレス情報となる。 (2) From the selected specific data group, those having the start time and the end time in the section from the start time in the song to the end time in the song are selected and arranged in time series. As a result, specific data for specifying the in-music end time is obtained from the in-music start time of each of the sound material 1, sound material 2,... Belonging to this loop. Based on these specific data, the in-loop start time and in-loop end time of each of the sound material 1, sound material 2,... Are calculated. Further, information (address or ID) for specifying these specific data is the sound material address information of the sound material 1, the sound material 2,.

(3)上記(2)において求めた本ループ内の音素材1、音素材2、…の各特定データに対応した特徴量データ、すなわち、音素材1、音素材2、…の各特徴量データを選択し、これらの各特量量データから音素材1、音素材2、…が属する音素材カテゴリを求める。また、音素材1、音素材2、…の各々について、各々の音素材カテゴリに類似した類似カテゴリを求め、これらを指定する類似カテゴリ指定情報を生成する。 (3) Feature quantity data corresponding to each specific data of the sound material 1, sound material 2,... In the main loop obtained in (2) above, that is, each feature quantity data of sound material 1, sound material 2,. , And the sound material category to which sound material 1, sound material 2,. For each of the sound material 1, sound material 2,..., Similar categories similar to the respective sound material categories are obtained, and similar category designation information for designating them is generated.

(4)本ループの音素材1、音素材2、…の各々について類似音素材1〜4を求める。例えば音素材1に関しては、次のようにして類似音素材1〜4を求める。まず、ユーザによって例えばユーザデータベースAが選択されたとすると、ユーザデータベースA内の全てのシーンデータの中から音素材1、2、…の音素材アドレス情報を各々読み出す。そして、音素材データベース120内において、これらの音素材アドレス情報により特定される各特徴量データの中から音素材1の特徴量データに類似しているものを上位4個まで選ぶ。このようにして選ばれた第1位〜第4位までの特徴量データに対応した各音素材が音素材1の類似音素材1〜4となる。他の音素材2、音素材3、…についても同様である。 (4) The similar sound materials 1 to 4 are obtained for each of the sound material 1, sound material 2,. For example, for sound material 1, similar sound materials 1 to 4 are obtained as follows. First, for example, if the user database A is selected by the user, the sound material address information of the sound materials 1, 2,... Is read from all the scene data in the user database A. Then, in the sound material database 120, the top four items similar to the feature value data of the sound material 1 are selected from the feature value data specified by the sound material address information. The sound materials corresponding to the feature value data from the first to the fourth selected in this way become the similar sound materials 1 to 4 of the sound material 1. The same applies to the other sound material 2, sound material 3,.

以上、ユーザによってユーザデータベースAが選択された場合を例に類似音素材1〜4の求め方を説明したが、ユーザデータベースB〜Dが選択された場合も同様である。ユーザによってデフォルトデータベースが選択された場合は、音素材データベース120により定義された全ての音素材が類似音素材1〜4の抽出範囲となる。   The method for obtaining the similar sound materials 1 to 4 has been described above by taking the case where the user database A is selected by the user as an example, but the same applies when the user databases B to D are selected. When the default database is selected by the user, all the sound materials defined by the sound material database 120 are the extraction ranges of the similar sound materials 1 to 4.

(5)選択音素材を1に初期設定する。
以上が本ループを構成する音素材1、2、…の各構成情報の生成方法である。
(5) The selected sound material is initially set to 1.
The above is the method for generating the configuration information of the sound materials 1, 2,.

図4に示すように、本ループの音素材1の構成情報の後には、この音素材1に類似した類似音素材1〜4の各構成情報が続く。これらの各構成情報の生成方法は、基本的に音素材1の構成情報の生成方法と同様である。ただし、類似音素材1〜4に関しては、類似音素材指定情報、類似カテゴリ指定情報、選択音素材の各データが不要であるので、これらのデータの内容はnullとなる。   As shown in FIG. 4, the configuration information of the sound material 1 of this loop is followed by the configuration information of similar sound materials 1 to 4 similar to the sound material 1. The method for generating each piece of configuration information is basically the same as the method for generating the configuration information of the sound material 1. However, regarding the similar sound materials 1 to 4, since the similar sound material designation information, the similar category designation information, and the selected sound material data are not necessary, the contents of these data are null.

本ループのデータの後にはネクストループのデータが続く。このネクストループのデータの構成およびその生成方法は本ループのデータと同様である。
以上がシーンデータバッファ151内のシーンデータおよびその生成方法である。
The data of the next loop is followed by the data of the next loop. The data structure of this next loop and the generation method thereof are the same as the data of this loop.
The above is the scene data in the scene data buffer 151 and its generation method.

図3(b)において、波形表示エリア201の下側の音構成表示エリア203には、以上説明したシーンデータのうち編集対象区間(ここでは本ループとする)に対応したデータの内容が表示される。この表示の制御は、編集部142によって行われる。図3(b)に示す例では、音構成表示エリア203において、5個の○形状のマークが上下方向に5個並んだ縦長の矩形H1〜H4が横方向に並んでいる。これらの矩形H1〜H4は、シーンデータバッファ151内のシーンデータが示す本ループの音素材1〜4の選択音素材の内容を示すものである。各矩形H1〜H4において、最上部の○マークは、本来の音素材(すなわち、音素材1〜4)を示し、上から2番目の○マークは類似音素材1を、3番目の○マークは類似音素材2と、4番目の○マークは類似音素材3を、5番目の○マークは類似音素材4を各々示す。そして、各矩形H1〜H4において、上下方向に並んだ5個の○マークのうちONになっているマーク、すなわち、図3(b)では黒く塗り潰された○マークが音素材1〜4の各々の選択音素材を示している。図3(b)に示す例では、シーンデータバッファ151内のシーンデータが示す本ループの音素材1〜4において、音素材1〜4が選択音素材となっているため、矩形H1〜H4の各々において、最上部の○マークがONになっている。   In FIG. 3B, the sound composition display area 203 below the waveform display area 201 displays the contents of the data corresponding to the editing target section (here, this loop) among the scene data described above. The This display control is performed by the editing unit 142. In the example shown in FIG. 3B, in the sound configuration display area 203, vertically long rectangles H1 to H4 in which five ◯ -shaped marks are arranged in the vertical direction are arranged in the horizontal direction. These rectangles H1 to H4 indicate the contents of the selected sound material of the sound materials 1 to 4 in the main loop indicated by the scene data in the scene data buffer 151. In each rectangle H1 to H4, the uppermost circle mark indicates the original sound material (that is, sound material 1 to 4), the second circle mark from the top indicates the similar sound material 1, and the third circle mark indicates The similar sound material 2 and the fourth circle mark indicate the similar sound material 3, and the fifth circle mark indicates the similar sound material 4. In each of the rectangles H1 to H4, among the five circles arranged in the vertical direction, the mark that is ON, that is, the circle that is blacked out in FIG. The selected sound material is shown. In the example shown in FIG. 3B, since the sound materials 1 to 4 are selected sound materials in the sound materials 1 to 4 of the main loop indicated by the scene data in the scene data buffer 151, the rectangles H1 to H4 In each, the uppermost circle mark is ON.

図3(b)に示すように、波形表示エリア201では、本ループの音波形とともに、音素材1〜4の各々の区間を示すとともに、これらの区間と音構成表示エリア203内の矩形H1〜H4との対応付けを示すための着色表示がなされる。図3(b)では、着色表示された各区間の境界が破線により示されている。図3(b)に示す波形表示エリア201において、最も左側の破線とその右隣の破線との間の領域が音素材1の区間を示している。この区間の色は、音素材1がアタックである場合は赤色、ダストである場合は灰色、という具合にシーンデータが示す本ループの音素材1の音素材カテゴリに基づいて決定される。音素材2〜4についても同様である。   As shown in FIG. 3B, the waveform display area 201 shows each section of the sound materials 1 to 4 together with the sound waveform of the loop, and the rectangles H1 to H1 in the sections and the sound composition display area 203. A colored display is displayed to indicate the association with H4. In FIG. 3 (b), the boundaries between the colored sections are indicated by broken lines. In the waveform display area 201 shown in FIG. 3B, a region between the leftmost broken line and the right adjacent broken line indicates the section of the sound material 1. The color of this section is determined based on the sound material category of the sound material 1 of the main loop indicated by the scene data, such as red when the sound material 1 is an attack, gray when the sound material 1 is dust. The same applies to the sound materials 2 to 4.

図3(b)に示す表示がなされた状態において、ユーザは、音構成表示エリア203の矩形H1〜H4内の所望の○マークにタッチすることにより、シーンデータが示す本ループの音素材1〜4のうち所望のものの選択音素材を変更することができる。例えば図3(b)に示す表示がなされた状態において、ユーザが矩形H1内の上から2番目の○マークにタッチしたとする。これにより編集部142は、シーンデータバッファ151内のシーンデータが示す本ループの音素材1の選択音素材を類似音素材1を示す数値である2に変更する。また、編集部142は、シーンデータバッファ151内の変更後のシーンデータに対応した内容となるように、波形データバッファ152内の音波形データを変更する。さらに詳述すると、編集部142は、シーンデータが示す本ループの音素材1の選択音素材が2になったため、シーンデータにおける音素材1の類似音素材1の構成情報を参照し、この類似音素材1の音素材アドレス情報が示す特定データを音素材データベース120から読み出す。そして、この特定データにより特定された音波形データを曲データベース110から読み出し、波形データバッファ152内の音波形データのうち音素材1のループ内開始時刻からループ内終了時刻までの区間内の音波形データを、この曲データベース110から読み出した音波形データに置き換えるのである。以後、再生部144は、この音素材1が類似音素材2に置き換えられた本ループの音波形データを波形データバッファ152から読み出し、音響処理部16およびスピーカ161を介して音として出力させる。   In the state shown in FIG. 3B, the user touches the desired ○ marks in the rectangles H <b> 1 to H <b> 4 of the sound composition display area 203, so that the sound material 1 to 1 of this loop indicated by the scene data is displayed. The desired selected sound material among the four can be changed. For example, it is assumed that the user touches the second mark from the top in the rectangle H1 in the state shown in FIG. Thereby, the editing unit 142 changes the selected sound material of the sound material 1 of the main loop indicated by the scene data in the scene data buffer 151 to 2 which is a numerical value indicating the similar sound material 1. Further, the editing unit 142 changes the sound waveform data in the waveform data buffer 152 so that the content corresponds to the changed scene data in the scene data buffer 151. More specifically, the editing unit 142 refers to the configuration information of the similar sound material 1 of the sound material 1 in the scene data because the selected sound material of the sound material 1 of the main loop indicated by the scene data is 2, and this similarity is referred to. The specific data indicated by the sound material address information of the sound material 1 is read from the sound material database 120. Then, the sound waveform data specified by the specific data is read from the music database 110, and the sound waveform in the section from the start time in the loop of the sound material 1 to the end time in the loop of the sound waveform data in the waveform data buffer 152 is read. The data is replaced with sound waveform data read from the music database 110. Thereafter, the playback unit 144 reads out the sound waveform data of this loop in which the sound material 1 is replaced with the similar sound material 2 from the waveform data buffer 152 and outputs the sound waveform data as sound via the sound processing unit 16 and the speaker 161.

また、図示は省略したが、ユーザは、所定の操作を行うことにより、本ループの音素材1〜4のうち所望のものを類似カテゴリの音素材に置き換えることもできる。さらに詳述すると、ユーザが例えば音素材1を指定する操作を行うとともに、カテゴリ変更を指示する操作を行うと、編集部142は、シーンデータバッファ151内のシーンデータが示す本ループの音素材1の構成情報の中から類似カテゴリ指定情報を読み出す。そして、類似カテゴリ指定情報が示す類似カテゴリ1〜4を表示部13にメニュー表示させる。そして、ユーザが操作部12の操作により例えば類似カテゴリ4を選択すると、編集部142は、音素材データベース120により定義された各音素材の中から、ユーザが選択したデータベースに対応したものであって、類似カテゴリ4に属するもののメニューを表示させる。例えばユーザがユーザデータベースAを選択していた場合、編集部142は、ユーザデータベースA内の全てのシーンデータの中から音素材1、2、…の音素材アドレス情報を各々読み出す。そして、音素材データベース120内において、これらの音素材アドレス情報により特定される各特徴量データの中から類似カテゴリ4に属し、かつ、音素材1の特徴量データに最も類似している上位4個を選ぶ。この上位4個を矩形H1の上から2番目〜5番目の○マークの対応付け、ユーザに選択させるのである。ユーザが例えば矩形H1内の上から5番目の○マークにタッチすると、編集部142は、この○マークに対応した類似カテゴリ4の音素材の音素材アドレス情報に対応した音波形データを曲データベース110から読み出し、波形データバッファ152内の音波形データのうち音素材1のループ内開始時刻からループ内終了時刻までの区間内の音波形データを、この曲データベース110から読み出した音波形データに置き換える。   Although not shown, the user can replace a desired one of the sound materials 1 to 4 in this loop with a sound material of a similar category by performing a predetermined operation. More specifically, when the user performs, for example, an operation of designating the sound material 1 and an operation of instructing a category change, the editing unit 142 causes the sound material 1 of the main loop indicated by the scene data in the scene data buffer 151. Similar category designation information is read out from the configuration information. Then, similar categories 1 to 4 indicated by the similar category designation information are displayed on the display unit 13 as a menu. When the user selects, for example, the similar category 4 by operating the operation unit 12, the editing unit 142 corresponds to the database selected by the user from the sound materials defined by the sound material database 120. , A menu of items belonging to the similar category 4 is displayed. For example, when the user has selected the user database A, the editing unit 142 reads out the sound material address information of the sound materials 1, 2,... From all the scene data in the user database A. Then, in the sound material database 120, the top four items belonging to the similar category 4 and most similar to the feature value data of the sound material 1 among the feature value data specified by the sound material address information. Select. The top four are associated with the second to fifth circles from the top of the rectangle H1, and the user is made to select them. When the user touches the fifth mark from the top in the rectangle H1, for example, the editing unit 142 sets the sound waveform data corresponding to the sound material address information of the sound material of the similar category 4 corresponding to this mark to the music database 110. From the sound waveform data in the waveform data buffer 152, the sound waveform data in the section from the start time in the loop to the end time in the loop of the sound material 1 is replaced with the sound waveform data read from the music database 110.

以上のようにして、ユーザは、操作部12の操作により、シーンデータバッファ151内のシーンデータのうち本ループに対応した部分の編集を行い、波形データバッファ152内の音波形データを編集後のシーンデータに対応した内容に変更することができる。   As described above, the user edits the portion corresponding to this loop in the scene data in the scene data buffer 151 by operating the operation unit 12 and edits the sound waveform data in the waveform data buffer 152 after editing. The content can be changed according to the scene data.

このようにして本ループの編集作業を行っている状況において、ユーザが所望のフレーズを生成するために、本ループではなく、その直後のネクストループの編集を望む場合がある。この場合、ユーザは、図3(c)に示すように、波形表示エリア201の右端付近の領域をタップ(指で軽く叩く操作)すればよい。   In a situation where the editing operation of the main loop is performed in this manner, there is a case where the user desires to edit not the main loop but the next loop immediately after it in order to generate a desired phrase. In this case, as shown in FIG. 3C, the user may tap (an operation of tapping with a finger) an area near the right end of the waveform display area 201.

編集対象シフト部143は、この波形表示エリア201の右端付近の領域のタップ操作を検知すると、図3(d)に示すように、シークバー201aが波形表示エリア201の右端に到達するのを待つ。そして、シークバー201aが右端に到達すると、編集対象区間を本ループからネクストループにシフトする旨の指示を編集部142に対して送る。これにより編集部142は、シーンデータバッファ151内のシーンデータのうちネクストループに対応した部分に基づいて、ネクストループの音波形データを生成し、波形データバッファ152に格納する。そして、編集部142は、図3(e)に例示するように、シーンデータバッファ151内のシーンデータが示すネクストループの音素材1〜7の選択音素材を示す矩形H1〜H7を音構成表示エリア203に表示させるとともに、波形データバッファ152内のネクストループの音波形データを波形表示エリア201に表示させる。そして、再生部144は、この波形データバッファ152内のネクストループの音波形データを読み出し、音響処理部16およびスピーカ161を介して音として出力させる。   When the editing target shift unit 143 detects a tap operation in the region near the right end of the waveform display area 201, the editing target shift unit 143 waits for the seek bar 201a to reach the right end of the waveform display area 201, as shown in FIG. Then, when the seek bar 201a reaches the right end, an instruction to shift the editing target section from the main loop to the next loop is sent to the editing unit 142. Thus, the editing unit 142 generates next-loop sound waveform data based on the portion corresponding to the next loop in the scene data in the scene data buffer 151, and stores it in the waveform data buffer 152. Then, as illustrated in FIG. 3E, the editing unit 142 displays the rectangles H1 to H7 indicating the selected sound materials of the next loop sound materials 1 to 7 indicated by the scene data in the scene data buffer 151 as the sound configuration display. While displaying in the area 203, the sound waveform data of the next loop in the waveform data buffer 152 is displayed in the waveform display area 201. Then, the playback unit 144 reads the sound waveform data of the next loop in the waveform data buffer 152 and outputs it as sound via the acoustic processing unit 16 and the speaker 161.

図3(e)に例示する表示がなされた状態において、ユーザは、本ループの場合と同様、音構成表示エリア203の矩形H1〜H7内の所望の○マークをタッチすることにより、シーンデータが示すネクストループの音素材1〜7のうち所望のものの選択音素材を変更することができる。また、ユーザは、本ループの場合と同様、ネクストループの音素材1〜7のうち所望のものを類似カテゴリの音素材に置き換えることもできる。   In the state where the display illustrated in FIG. 3E is performed, the user touches the desired ○ marks in the rectangles H1 to H7 in the sound composition display area 203 as in the case of this loop, so that the scene data is displayed. The desired selected sound material can be changed among the sound materials 1 to 7 of the next loop shown. Further, as in the case of the main loop, the user can also replace a desired one of the next loop sound materials 1 to 7 with a sound material of a similar category.

このようにしてネクストループの編集を行っている状況において、ユーザが本ループの編集に戻ることを望む場合もある。その場合、ユーザは、図3(f)に示すように、波形表示エリア201の左端付近の領域をタップすればよい。   In a situation where editing of the next loop is performed in this way, the user may desire to return to editing of this loop. In that case, the user may tap the area near the left end of the waveform display area 201 as shown in FIG.

編集対象シフト部143は、この波形表示エリア201の左端付近の領域のタップ操作を検知すると、図3(g)に示すように、シークバー201aが移動し、波形表示エリア201の右端に到達するのを待ち、シークバー201aが右端に到達すると、編集対象区間をネクストループから本ループにシフトする旨の指示を編集部142に対して送る。これにより編集部142は、シーンデータバッファ151内のシーンデータのうち本ループに対応した部分に基づいて、本ループの音波形データを生成し、波形データバッファ152に格納する。そして、編集部142は、図3(b)に例示するように、シーンデータバッファ151内のシーンデータが示す本ループの音素材1〜4の選択音素材を示す矩形H1〜H4を音構成表示エリア203に表示させるとともに、波形データバッファ152内の本ループの音波形データを波形表示エリア201に表示させる。そして、再生部144は、この波形データバッファ152内の本ループの音波形データを読み出し、音響処理部16およびスピーカ161を介して音として出力させる。   When the editing target shift unit 143 detects a tap operation in the region near the left end of the waveform display area 201, the seek bar 201a moves and reaches the right end of the waveform display area 201 as shown in FIG. When the seek bar 201a reaches the right end, an instruction to shift the editing target section from the next loop to the main loop is sent to the editing unit 142. As a result, the editing unit 142 generates sound waveform data of the main loop based on the portion of the scene data in the scene data buffer 151 corresponding to the main loop, and stores it in the waveform data buffer 152. Then, as illustrated in FIG. 3B, the editing unit 142 displays the sound configurations of rectangles H1 to H4 indicating the selected sound materials of the sound materials 1 to 4 of the main loop indicated by the scene data in the scene data buffer 151. While being displayed in the area 203, the sound waveform data of this loop in the waveform data buffer 152 is displayed in the waveform display area 201. Then, the reproduction unit 144 reads the sound waveform data of the main loop in the waveform data buffer 152 and outputs it as sound via the acoustic processing unit 16 and the speaker 161.

以後、同様であり、ユーザは、波形表示エリア201の右端付近または左端付近のタップ操作により、編集対象区間の本ループからネクストループへのシフト、ネクストループから本ループへのシフトを行うことができ、シーンデータにおける所望の編集対象区間に対応したデータを編集することができる。   Thereafter, the same applies, and the user can shift the edit target section from the main loop to the next loop, and from the next loop to the main loop by a tap operation near the right end or the left end of the waveform display area 201. The data corresponding to the desired edit target section in the scene data can be edited.

本実施形態では、このようにして編集したシーンデータをシーンデータベース160に保存することができる。ユーザが操作部12の操作により登録指示を行うと、図5(a)に示すように、波形表示エリア201の上に“Store”なる表記がなされたソフトボタンと、数字の“1”、“2”、“3”が表示される。ここで、数字の“1”、“2”、“3”は、現在、シーンデータの登録状況を示すものである。さらに詳述すると、次の通りである。まず、現在のシーンデータバッファ151内のシーンデータの編集において類似音素材の抽出のためのデータベースとして例えばユーザデータベースAが選択されているものとする。また、シーンデータバッファ151内のシーンデータが曲データベース110内の例えば曲Xの曲データファイル内の音波形データに基づいて生成されており、この曲Xの曲データファイル内の音波形データに基づいて生成されたシーンデータがユーザデータベースA内に既に1個格納されているものとする。この場合、数字“1”は例えば赤色で表示され、数字“2”、“3”は例えば青色で表示される。この状態において、ユーザが“Store”なる表記がなされたソフトボタンをタッチすると、編集部142は、シーンデータバッファ151内のシーンデータを曲Xに対応した2番目のシーンデータとしてシーンデータベース160のユーザデータベースAに格納する。これにより“Store”なる表記がなされたソフトボタンの横の数字“1”、“2”、“3”の表示色は、数字“1”、“2”が赤色、数字“3”が青色となる。   In the present embodiment, the scene data edited in this way can be stored in the scene database 160. When the user gives a registration instruction by operating the operation unit 12, as shown in FIG. 5A, a soft button labeled “Store” on the waveform display area 201 and the numbers “1”, “ “2” and “3” are displayed. Here, the numbers “1”, “2”, and “3” indicate the registration status of the scene data. Further details are as follows. First, it is assumed that, for example, the user database A is selected as a database for extracting similar sound material in editing scene data in the current scene data buffer 151. The scene data in the scene data buffer 151 is generated based on the sound waveform data in the song data file of the song X in the song database 110, for example, and based on the sound waveform data in the song data file of the song X. Assume that one piece of scene data generated in this way is already stored in the user database A. In this case, the number “1” is displayed in red, for example, and the numbers “2” and “3” are displayed in blue, for example. In this state, when the user touches the soft button labeled “Store”, the editing unit 142 uses the scene data in the scene data buffer 151 as the second scene data corresponding to the song X, and the user of the scene database 160. Store in database A. As a result, the numbers “1”, “2”, “3” displayed next to the soft button labeled “Store” are displayed in red as the numbers “1”, “2”, and as “3” as blue. Become.

また、ユーザは、このようにしてシーンデータベース160に格納したシーンデータを操作部12の操作により読み出し、そのシーンデータからフレーズを再生し、またはそのシーンデータの編集を行うことができる。このシーンデータの読み出しを行うため、ユーザは、シーンデータの登録先であるデータベース(例えばユーザデータベースAとする)を指定する操作を行う。この結果、表示部13に、図5(b)に例示するように、曲データベース110内の曲データファイルのうちユーザデータベースAに対応付けられているものの曲名が表示されている。図5(b)に示す例では、曲名4の横に数字“1”、“2”、“3”が表示されている。これは曲名4の曲データファイルに基づいて生成された3個のシーンデータがユーザデータベースAに格納されていることを示している。この場合、ユーザは、所望の数字にタッチすることにより読み出し対象であるシーンデータを指定することができる。ここで、ユーザが例えば“2”にタッチすると、曲名4の曲データファイルに基づいて生成された2番目のシーンデータがユーザデータベースAから読み出され、シーンデータバッファ151に格納される。また、このシーンデータバッファ151に格納されたシーンデータに基づいて、本ループの音波形データが生成され、波形データバッファ152に格納される。これにより、再生部144は、この波形データバッファ152内の本ループの音波形データを読み出し、音響処理部16およびスピーカ161を介して音として出力させる。この状態において、ユーザは、操作部12の操作によりシーンデータバッファ151内のシーンデータを編集することが可能である。   In addition, the user can read the scene data stored in the scene database 160 in this way by operating the operation unit 12, reproduce the phrase from the scene data, or edit the scene data. In order to read the scene data, the user performs an operation of designating a database (for example, user database A) to which the scene data is registered. As a result, the song name of the song data file in the song database 110 associated with the user database A is displayed on the display unit 13 as illustrated in FIG. In the example shown in FIG. 5B, the numbers “1”, “2”, and “3” are displayed next to the song title 4. This indicates that three scene data generated based on the song data file of the song name 4 are stored in the user database A. In this case, the user can designate scene data to be read by touching a desired number. Here, for example, when the user touches “2”, the second scene data generated based on the song data file of the song name 4 is read from the user database A and stored in the scene data buffer 151. The sound waveform data of this loop is generated based on the scene data stored in the scene data buffer 151 and stored in the waveform data buffer 152. As a result, the reproducing unit 144 reads out the sound waveform data of the main loop in the waveform data buffer 152 and outputs it as sound via the acoustic processing unit 16 and the speaker 161. In this state, the user can edit the scene data in the scene data buffer 151 by operating the operation unit 12.

図5(b)に示す表示がなされた状態において、ユーザは、以上の方法とは異なる方法によりシーンデータの読み出しを指示することが可能である。図5(b)に示すように、曲名の右横には、再生指示のためのソフトボタン204が表示される。ここで、ユーザが曲名4の横のソフトボタン204にタッチすると、曲データベース110から曲名4の曲データファイルが読み出される。そして、この曲名4の曲データファイル内の音波形データが音響処理部16およびスピーカ161を介して音として出力され、曲名4の曲が再生される。そして、図6(a)に例示するように、表示部13の波形表示エリア201には、曲名4の曲データファイルの音波形データが表示される。また、曲名4の曲の再生の進行に応じて、再生位置を示すシークバー201aが移動する。図6(a)に例示するように、波形表示エリア201の上には、数字“1”、“2”、“3”が表示される。編集対象取り込み部141は、ユーザデータベースAに格納された曲名4の曲データファイルに対応した3個のシーンデータのうち1番目のシーンデータが示す本ループの音波形データの表示区間をシークバー201aが通過するとき、数字“1”を大きく表示し、2番目のシーンデータが示す本ループの音波形データの表示区間をシークバー201aが通過するとき、数字“2”を大きく表示し、3番目のシーンデータが示す本ループの音波形データの表示区間をシークバー201aが通過するとき、数字“3”を大きく表示する。ユーザは、数字“1”、“2”、“3”のいずれかが大きく表示されたときに取り込み指示操作を行うことにより、編集対象取り込み部141に所望のシーンデータをユーザデータベースAから読み出させ、シーンデータバッファ151に格納させることができる。   In the state shown in FIG. 5B, the user can instruct reading of scene data by a method different from the above method. As shown in FIG. 5B, a soft button 204 for instructing playback is displayed on the right side of the song title. Here, when the user touches the soft button 204 next to the song name 4, the song data file of the song name 4 is read from the song database 110. The sound waveform data in the song data file with the song title 4 is output as sound through the acoustic processing unit 16 and the speaker 161, and the song with the song title 4 is reproduced. Then, as illustrated in FIG. 6A, the waveform display area 201 of the display unit 13 displays the sound waveform data of the song data file of the song name 4. Also, the seek bar 201a indicating the playback position moves in accordance with the progress of playback of the song with the song name 4. As illustrated in FIG. 6A, numbers “1”, “2”, and “3” are displayed on the waveform display area 201. The editing target capturing unit 141 uses the seek bar 201a to display a display section of the sound waveform data of the main loop indicated by the first scene data among the three scene data corresponding to the song data file of the song name 4 stored in the user database A. When passing, the number “1” is displayed larger, and when the seek bar 201a passes the sound waveform data display section of the main loop indicated by the second scene data, the number “2” is displayed larger and the third scene is displayed. When the seek bar 201a passes through the display section of the sound waveform data of the main loop indicated by the data, the number “3” is displayed large. The user reads out desired scene data from the user database A to the editing target capturing unit 141 by performing a capturing instruction operation when any of the numbers “1”, “2”, and “3” is displayed large. Can be stored in the scene data buffer 151.

この結果、図6(b)に例示する画面が表示部13に表示される。この例では、ユーザが曲名4の曲データファイルに対応した1番目のシーンデータの取り込みを指示し、そのシーンデータがシーンデータバッファ151に格納されたため、波形表示エリア201の上に、数字“1”が大きく表示され、数字“2”、“3”が小さく表示される。   As a result, the screen illustrated in FIG. 6B is displayed on the display unit 13. In this example, since the user instructs to fetch the first scene data corresponding to the song data file of the song name 4 and the scene data is stored in the scene data buffer 151, the number “1” is displayed on the waveform display area 201. "Is displayed large, and the numbers" 2 "and" 3 "are displayed small.

この状態において、ユーザは、シーンデータバッファ151内のシーンデータを他のシーンデータに取り換えることができる。例えばユーザが数字“1”、“2”、“3”のうち数字“2”にタッチしたとする。この場合、編集対象取り込み部141は、曲名4の曲データファイルに対応した2番目のシーンデータをユーザデータベースAから読み出してシーンデータバッファ151に格納する。従って、ユーザは、この曲名4の曲データファイルに対応した2番目のシーンデータに基づいてフレーズを再生し、あるいはこの2番目のシーンデータの編集を行うことができる。   In this state, the user can replace the scene data in the scene data buffer 151 with other scene data. For example, it is assumed that the user touches the number “2” among the numbers “1”, “2”, and “3”. In this case, the editing target import unit 141 reads out the second scene data corresponding to the song data file of the song name 4 from the user database A and stores it in the scene data buffer 151. Therefore, the user can reproduce a phrase based on the second scene data corresponding to the song data file of the song name 4 or edit the second scene data.

本実施形態では、遊び感覚でのシーンデータの編集を可能にするため、上述したシャッフルモードが設けられている。あるシーンデータがシーンデータバッファ151に格納されている状態において、ユーザが操作部12の操作によりシャッフルモードを設定し、図7(a)に例示するように、音波形編集装置10を手で振ると、編集部142は、シーンデータバッファ151内のシーンデータが示す編集対象区間内の音素材の個数と同じ個数の擬似乱数を発生する。ここで、各擬似乱数は、1〜5までのいずれかの値をとる。1番目の擬似乱数が3である場合、編集部142は、シーンデータバッファ151内のシーンデータにおいて、編集対象区間の音素材1の選択音素材を3(類似音素材2)にする。また、2番目の擬似乱数が1である場合、編集部142は、音素材2の選択音素材を1(音素材2)にする。他の音素材についても同様である。図7(b)には、このようにしてシーンデータバッファ151内のシーンデータが変更された後の音構成表示エリア203および波形表示エリア201の表示内容が例示されている。このようにシャッフルモードでは、音波形編集装置10が振られる都度、シーンデータバッファ151内のシーンデータの内容がランダムに変更される。従って、ユーザは、遊び感覚でシーンデータの編集を行うことができる。
以上が本実施形態の動作である。
In the present embodiment, the above-described shuffle mode is provided in order to enable editing of scene data with a sense of play. In a state where certain scene data is stored in the scene data buffer 151, the user sets the shuffle mode by operating the operation unit 12, and shakes the sound waveform editing apparatus 10 by hand as illustrated in FIG. 7A. Then, the editing unit 142 generates the same number of pseudo-random numbers as the number of sound materials in the editing target section indicated by the scene data in the scene data buffer 151. Here, each pseudo-random number takes any value from 1 to 5. When the first pseudorandom number is 3, the editing unit 142 sets the selected sound material of the sound material 1 in the editing target section to 3 (similar sound material 2) in the scene data in the scene data buffer 151. When the second pseudorandom number is 1, the editing unit 142 sets the selected sound material of the sound material 2 to 1 (sound material 2). The same applies to other sound materials. FIG. 7B illustrates the display contents of the sound configuration display area 203 and the waveform display area 201 after the scene data in the scene data buffer 151 is changed in this way. As described above, in the shuffle mode, the contents of the scene data in the scene data buffer 151 are randomly changed every time the sound waveform editing device 10 is shaken. Therefore, the user can edit the scene data as if playing.
The above is the operation of this embodiment.

以上説明したように、本実施形態によれば、ユーザが所望の曲データファイル中の所望の区間を本ループとして選択すると、この本ループとその直後のネクストループの音波形データに基づいてシーンデータが生成されてシーンデータバッファ151に格納される。そして、ユーザは、編集対象を本ループからネクストループへ、またはネクストループから本ループへシフトして、このシーンデータバッファ151内のシーンデータにおける編集対象区間内のデータを編集することができる。このように本実施形態によれば、編集対象とする音波形の区間を選択して編集を開始した後、編集対象の区間を容易に変更することができる。   As described above, according to the present embodiment, when a user selects a desired section in a desired song data file as a main loop, scene data is based on the sound waveform data of the main loop and the next loop immediately thereafter. Is generated and stored in the scene data buffer 151. Then, the user can edit the data in the editing target section in the scene data in the scene data buffer 151 by shifting the editing target from the main loop to the next loop or from the next loop to the main loop. As described above, according to the present embodiment, after the sound waveform section to be edited is selected and editing is started, the section to be edited can be easily changed.

また、本実施形態によれば、シーンデータベース160のユーザデータベースA〜Dを曲データベース110の曲データファイルの任意のグループに対応付けることが可能であり、あるユーザデータベースを選択してシーンデータを編集する場合、そのユーザデータベースに対応付けられたグループの曲データファイルの中の音素材の範囲内でシーンデータ中の類似音素材を決定することができる。従って、ユーザは、自分の好みに合ったフレーズを実現するシーンデータを容易に編集することができる。   Further, according to the present embodiment, the user databases A to D of the scene database 160 can be associated with an arbitrary group of music data files of the music database 110, and a scene is edited by selecting a certain user database. In this case, the similar sound material in the scene data can be determined within the range of the sound material in the music data file of the group associated with the user database. Therefore, the user can easily edit scene data that realizes a phrase that suits his / her preference.

また、本実施形態によれば、シャッフルモードが設けられており、ユーザは、音波形編集装置10を振ることにより、シーンデータバッファ151内のシーンデータの内容をランダムに変化させることができる。従って、遊び感覚でのシーンデータの編集を行うことができる。   Further, according to the present embodiment, the shuffle mode is provided, and the user can change the contents of the scene data in the scene data buffer 151 at random by shaking the sound waveform editing device 10. Therefore, the scene data can be edited with a sense of play.

<他の実施形態>
以上、この発明の一実施形態について説明したが、この発明には他にも実施形態が考えられる。例えば次の通りである。
<Other embodiments>
Although one embodiment of the present invention has been described above, other embodiments are conceivable for the present invention. For example:

(1)上記実施形態では、シーンデータにより本ループ、ネクストループという2つの区間の音波形を構成する音素材を定義し、音波形の編集に利用した。しかし、ユーザが操作部12の操作により指定した指定区間とその前後の2つの拡張区間とからなる3つの区間の音波形データ、またはそれ以上の区間の音波形データを構成する音素材をシーンデータにより定義し、音波形の編集に利用してもよい。 (1) In the above embodiment, the sound material constituting the sound waveform of the two sections of the main loop and the next loop is defined by the scene data and used for editing the sound waveform. However, the sound material constituting the sound waveform data of the three sections consisting of the specified section designated by the operation of the operation unit 12 and the two extended sections before or after the specified section, or the sound material constituting the sound waveform data of the sections higher than that is represented by the scene data. And may be used for sound waveform editing.

(2)上記実施形態では登録指示操作が行われた場合、シーンデータバッファ151内のシーンデータをシーンデータベース160に登録した。しかし、同シーンデータのうち本ループまたはネクストループのうち編集対象区間であるループに対応した部分のみをシーンデータベース160に登録するようにしてもよい。 (2) In the above embodiment, when a registration instruction operation is performed, the scene data in the scene data buffer 151 is registered in the scene database 160. However, only the portion corresponding to the loop that is the section to be edited in the main loop or the next loop in the scene data may be registered in the scene database 160.

(3)上記実施形態では、編集対象区間のシフトが指示された場合、本ループからネクストループへ、またはネクストループから本ループへという具合に、ループ1個分の編集対象区間のシフトを行った。しかし、例えば操作部12の操作に従って、現在の編集対象区間を1相当の時間だけ後方へ、2相当の時間だけ後方へ、1相当の時間だけ前方へ、2相当の時間だけ前方へ、という具合にシフトしてもよい。この場合、シーンデータバッファ151内のシーンデータの中から編集対象区間を構成する音素材を示すデータを抽出して編集用のバッファに格納し、操作部12の操作に従って、この編集用のバッファ内のデータの編集を行い、この編集用のバッファ内のデータに対して行われた編集をシーンデータバッファ151内のシーンデータに反映させるようにすればよい。 (3) In the above embodiment, when the shift of the editing target section is instructed, the editing target section for one loop is shifted from the main loop to the next loop or from the next loop to the main loop. . However, according to, for example the operation of the operation unit 12, the current editing object section rearward only one beat considerable time, backward by two beats considerable time, forward only one beat considerable time, forward by two beats considerable time You may shift to the condition such as. In this case, data indicating the sound material constituting the editing target section is extracted from the scene data in the scene data buffer 151 and stored in the editing buffer, and in the editing buffer according to the operation of the operation unit 12. This data may be edited, and the editing performed on the data in the editing buffer may be reflected in the scene data in the scene data buffer 151.

(4)上述したシャッフルモードにおいて、音波形編集装置10の筐体のピッチング(上下方向の振り)を検出した場合は、本ループからネクストループへまたはネクストループから本ループへの編集対象区間のシフトを行い、ヨーイング(左右方向の振り)を検出した場合には編集対象区間のループの各音素材の選択音素材をランダムに切り換えるようにしてもよい。 (4) In the above-described shuffle mode, when pitching (vertical swing) of the casing of the sound wave editing device 10 is detected, the edit target section is shifted from the main loop to the next loop or from the next loop to the main loop. If yawing (left-right swing) is detected, the selected sound material of each sound material in the loop of the edit target section may be switched randomly.

(5)上記実施形態において、音波形データは、楽器音の波形を示すデータや、人の声の波形を示すデータに限定されるものではなく、物音や騒音など、自然界において発生する任意の音の波形を示すデータを音波形データとして取り扱うことが可能である。 (5) In the above-described embodiment, the sound waveform data is not limited to data indicating the waveform of a musical instrument sound or data indicating the waveform of a human voice, and any sound generated in nature such as a sound or noise. It is possible to handle the data indicating the waveform as sound waveform data.

(6)上記実施形態において、本ループの音波形データとネクストループの音波形データの両方を波形データバッファ152に格納し、シーンデータバッファ151内のシーンデータに変更が生じたときに、その変更を波形データバッファ152内の音波形データに反映させるようにしてもよい。この態様は、編集対象区間を本ループからネクストループへ、ネクストループから本ループへシフトする場合に、シフト後の編集対象区間の音波形データをシーンデータから生成する必要がないため、編集対象区間のシフトを指示してからシフト後の編集対象区間の音波形データが波形表示エリア201に表示されるまでの時間を短くすることができる利点がある。 (6) In the above embodiment, both the sound waveform data of the main loop and the sound waveform data of the next loop are stored in the waveform data buffer 152, and the change is made when the scene data in the scene data buffer 151 is changed. May be reflected in the sound waveform data in the waveform data buffer 152. In this mode, when the edit target section is shifted from the main loop to the next loop and from the next loop to the main loop, it is not necessary to generate the sound waveform data of the edit target section after the shift from the scene data. There is an advantage that it is possible to shorten the time until the waveform display area 201 displays the sound waveform data of the editing target section after the shift is instructed.

(7)上記実施形態では、曲データベース110、音素材データベース120、シーンデータベース160を記憶部15に記憶させたが、これらのデータベースの全部または一部をネットワーク上のサーバに記憶させ、編集プログラム140がインターフェイス14を介してこのサーバに記憶されたデータベースにアクセスするようにしてもよい。 (7) In the above embodiment, the music database 110, the sound material database 120, and the scene database 160 are stored in the storage unit 15. However, all or part of these databases are stored in a server on the network, and the editing program 140 is stored. May access a database stored in this server via the interface 14.

10……音波形編集装置、11……制御部、12……操作部、13……表示部、14……インターフェイス、15……記憶部、16……音響処理部、161……スピーカ、162……マイクロフォン、17……センサ部、110……曲データベース、120……音素材データベース、130……解析プログラム、140……編集プログラム、141……編集対象取り込み部、142……編集部、143……編集対象シフト部、144……再生部、151……シーンデータバッファ、152……波形データバッファ、160……シーンデータベース。 DESCRIPTION OF SYMBOLS 10 ... Sound waveform editing apparatus, 11 ... Control part, 12 ... Operation part, 13 ... Display part, 14 ... Interface, 15 ... Memory | storage part, 16 ... Sound processing part, 161 ... Speaker, 162 …… Microphone, 17 …… Sensor unit, 110 …… Music database, 120 …… Sound material database, 130 …… Analysis program, 140 …… Edit program, 141 …… Edit target import unit, 142 …… Edit unit, 143 ... Editing object shift section, 144... Playback section, 151... Scene data buffer, 152.

Claims (6)

り込み指示操作により、記憶手段に記憶された音波形データのうち一部の区間が指示された場合、この取り込み指示操作により指示された指定区間内の音波形データおよびこの音波形データの後方または前方に連続した拡張区間内の音波形データを示す音波形構成データをバッファに格納する編集対象取り込み手段と、
前記バッファに格納された音波形構成データのうち予め指定された編集対象区間内のデータを、編集操作に従って編集する編集手段と、
フト指示操作に応じて、前記編集対象区間を時間軸方向にシフトする編集対象シフト手段と
を具備することを特徴とする音波形編集装置。
The preparative interrupt instruction operation, when a part of the section of the sound waveform data stored in the storage means is instructed, the rear of the sound waveform data and the sound waveform data in a designated section designated by the incorporation instruction operation Alternatively, edit target capturing means for storing sound waveform configuration data indicating the sound waveform data in an extended section continuous forward in a buffer;
The data of pre-specified edit object within the interval of the sound waveform configuration data stored in the buffer, and editing means for editing in accordance with editing operations,
Depending on the shift instructing operation, the editing shifts the target section in the time axis direction edited shifting means and sound waveform editing apparatus characterized by comprising a.
操作手段を具備し、Comprising operating means;
前記取り込み指示操作または前記編集操作または前記シフト指示操作は前記操作手段を用いることを特徴とする請求項1に記載の音波形編集装置。The sound waveform editing apparatus according to claim 1, wherein the operation unit is used for the capturing instruction operation, the editing operation, or the shift instruction operation.
前記編集対象取り込み手段は、前記音波形構成データとして、前記指定区間内の音波形データおよび前記拡張区間内の音波形データを構成する各音素材を示す音素材指定情報を含む音波形構成データを生成して前記バッファに格納し、The editing object capturing means includes sound waveform configuration data including sound material specification information indicating each sound material constituting the sound waveform data in the specified section and the sound waveform data in the extension section as the sound waveform configuration data. Generated and stored in the buffer,
前記編集手段は、前記バッファに格納された音波形構成データのうち編集対象区間内のものが示す音素材を、編集操作に従って他の音素材へ置き換えることを特徴とする請求項1または2に記載の音波形編集装置。3. The editing unit according to claim 1, wherein the editing unit replaces the sound material indicated by the sound wave configuration data stored in the buffer within the editing target section with another sound material according to an editing operation. Sound waveform editing device.
各種の音素材の集合体である音素材データベースを具備し、It has a sound material database that is a collection of various sound materials,
前記編集対象取り込み手段は、前記音波形構成データとして、前記音素材指定情報とともに、各々前記音素材データベース内の音素材であって、前記指定区間内の音波形データおよび前記拡張区間内の音波形データを構成する各音素材の各々に類似した音素材を示す類似音素材指定情報を含む音波形構成データを生成して前記バッファに格納し、The editing object capturing means includes the sound material designation information and the sound material in the sound material database, as the sound waveform configuration data, each of the sound waveform data in the designated section and the sound waveform in the extension section. Generating sound waveform configuration data including similar sound material designation information indicating a sound material similar to each of the sound materials constituting the data and storing it in the buffer;
前記編集手段は、編集操作に従って、前記音素材指定情報が示す音素材を前記類似音素材指定情報が示す音素材に置き換えることを特徴とする請求項3に記載の音波形編集装置。4. The sound waveform editing apparatus according to claim 3, wherein the editing unit replaces a sound material indicated by the sound material specifying information with a sound material indicated by the similar sound material specifying information in accordance with an editing operation.
前記音波形編集装置に生じる動きを検出するセンサと、A sensor for detecting a motion generated in the sound wave editing device;
前記センサにより前記音波形編集装置の動きが検出されるのに応じて、前記音波形構成データの前記編集対象区間内のデータの編集を前記編集手段に実行させる手段を具備することを特徴とする請求項1〜4のいずれか1の請求項に記載の音波形編集装置。And a means for causing the editing means to edit data in the edit target section of the sound waveform configuration data in response to detection of movement of the sound waveform editing apparatus by the sensor. The sound waveform editing apparatus according to any one of claims 1 to 4.
コンピュータを、Computer
取り込み指示操作により、記憶手段に記憶された音波形データのうち一部の区間が指示された場合、この取り込み指示操作により指示された指定区間内の音波形データおよびこの音波形データの後方または前方に連続した拡張区間内の音波形データを示す音波形構成データをバッファに格納する編集対象取り込み手段と、When a part of the sound waveform data stored in the storage unit is instructed by the capturing instruction operation, the sound waveform data in the specified section instructed by the capturing instruction operation and the rear or front of the sound waveform data Editing object capturing means for storing sound waveform configuration data indicating the sound waveform data in the continuous extended section in a buffer;
前記バッファに格納された音波形構成データのうち予め指定された編集対象区間内のデータを、編集操作に従って編集する編集手段と、Editing means for editing the data in the editing target section specified in advance among the sound waveform configuration data stored in the buffer according to an editing operation;
シフト指示操作に応じて、前記編集対象区間を時間軸方向にシフトする編集対象シフト手段とEditing target shift means for shifting the editing target section in the time axis direction in response to a shift instruction operation;
して機能させることを特徴とするプログラム。A program characterized by making it function.
JP2012169688A 2012-07-31 2012-07-31 Sound waveform editing apparatus and program Expired - Fee Related JP6007645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012169688A JP6007645B2 (en) 2012-07-31 2012-07-31 Sound waveform editing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012169688A JP6007645B2 (en) 2012-07-31 2012-07-31 Sound waveform editing apparatus and program

Publications (2)

Publication Number Publication Date
JP2014029387A JP2014029387A (en) 2014-02-13
JP6007645B2 true JP6007645B2 (en) 2016-10-12

Family

ID=50202010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012169688A Expired - Fee Related JP6007645B2 (en) 2012-07-31 2012-07-31 Sound waveform editing apparatus and program

Country Status (1)

Country Link
JP (1) JP6007645B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03105396A (en) * 1989-09-19 1991-05-02 Roland Corp Automatic playing device
JP3414163B2 (en) * 1996-10-10 2003-06-09 ヤマハ株式会社 Apparatus and method for displaying and editing automatic performance data
JP3705144B2 (en) * 2001-03-29 2005-10-12 ヤマハ株式会社 Performance data change processing device
JP4380720B2 (en) * 2007-03-20 2009-12-09 ヤマハ株式会社 Song editing apparatus and program

Also Published As

Publication number Publication date
JP2014029387A (en) 2014-02-13

Similar Documents

Publication Publication Date Title
US9076264B1 (en) Sound sequencing system and method
WO2017028686A1 (en) Information processing method, terminal device and computer storage medium
EP2180480B1 (en) Playlist search device, playlist search method and program
JP2008517314A (en) Apparatus and method for visually generating a music list
WO2014079186A1 (en) Method for making audio file and terminal device
JP5454604B2 (en) Video playback method, video playback device, and program
JP4755672B2 (en) Content editing apparatus, method and program
JP2008102898A (en) Device, method and program for music playback
JP2010134908A (en) Terminal device, image display method and program
JP5247374B2 (en) Information processing apparatus, processing method thereof, and program
JP2006127367A (en) Information management method, information management program, and information management apparatus
JP2008071117A (en) Interface device, music reproduction apparatus, interface program and interface method
JP5044503B2 (en) Effect image playback device, effect image playback method, effect image playback program, and recording medium
JP6007645B2 (en) Sound waveform editing apparatus and program
CN112883223A (en) Audio display method and device, electronic equipment and computer storage medium
WO2014203870A1 (en) Musical performance system, musical performance method and musical performance program
JP2020109918A (en) Video control system and video control method
JP5217687B2 (en) Song editing support apparatus and program
JP2014123085A (en) Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke
JP2013054335A (en) Electronic apparatus
JP2007133731A (en) Content data reproducing device
US20140142932A1 (en) Method for Producing Audio File and Terminal Device
JP4885752B2 (en) Audio equipment
JP5028922B2 (en) Music playback device, music playback program, and music playback method
JPH043097A (en) Musical information retrieving device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160712

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160829

R151 Written notification of patent or utility model registration

Ref document number: 6007645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees