JP2012053392A - Musical tone editing device and program - Google Patents

Musical tone editing device and program Download PDF

Info

Publication number
JP2012053392A
JP2012053392A JP2010197715A JP2010197715A JP2012053392A JP 2012053392 A JP2012053392 A JP 2012053392A JP 2010197715 A JP2010197715 A JP 2010197715A JP 2010197715 A JP2010197715 A JP 2010197715A JP 2012053392 A JP2012053392 A JP 2012053392A
Authority
JP
Japan
Prior art keywords
note
sound data
data
information
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010197715A
Other languages
Japanese (ja)
Other versions
JP5510207B2 (en
Inventor
Akihiro Miwa
明宏 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2010197715A priority Critical patent/JP5510207B2/en
Publication of JP2012053392A publication Critical patent/JP2012053392A/en
Application granted granted Critical
Publication of JP5510207B2 publication Critical patent/JP5510207B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a musical tone editing device that can readily edit each set of pitched note sound data separated into individual tone colors and pitched notes on the basis of the original sound data.SOLUTION: Many sets of note sound data comprising waveforms in units of individual tone colors and of pitched notes are assigned to one or another of a plurality of tone color groups by selectively working on pitched note figures displayed on a screen; and, in this assignment, note sound data can be reproduced to perform the assignment while actually listening to musical tones of one individual tone color or another. By displaying on the screen only a pitched note figure associated with pitched note sound data of one tone color group, editing of only a specific set of pitched note sound data belonging to the same tone color group is made possible while selectively playing back the pertinent set of pitched note sound data.

Description

この発明は、楽器音や音声といった異なる音色の楽音が複数混在してなる元の音響データを編集し再生することの可能な楽音編集装置及びプログラムに関する。特に、元の音響データを個々の音色別かつノート単位に分離した分離後の音響データ単位に編集することが容易にできるようにした技術に関する。   The present invention relates to a musical sound editing apparatus and program capable of editing and reproducing original acoustic data in which a plurality of musical sounds of different timbres such as instrument sounds and voices are mixed. In particular, the present invention relates to a technique that makes it easy to edit original sound data into separated sound data units separated into individual tone colors and into note units.

従来から、録音等により楽音波形そのものを記録した例えばオーディオデータ(音響データ)などを編集して再生することのできる楽音編集装置及びプログラムが知られている。こうした装置に関連するものとしては、例えば下記に示す非特許文献1に記載されている技術がその一例である。下記に示す非特許文献1には、それぞれが任意の音程(ノートと呼ぶ)かつ再生タイミングで発生された楽器音や人の音声といった異なる音色の楽音が複数混在した1つの連続波形からなる元の音響データを、前記異なる個々の音色別にかつノート単位に分離する音源分離の技術について開示されている。また、前記異なる音色別かつノート単位に分離した個々の音響データ(ノート音響データと呼ぶ)をピアノロールのような所定の編集画面上に所定の表示態様(例えば後述するノート図形など)で表示しておき、ユーザが該編集画面上に表示された各ノート音響データに対応する前記ノート図形を適宜に操作することによって、前記元の音響データをノート音響データ単位に編集することが容易にできるようにした所謂GUI(Graphical User Interface)に関する技術についても開示されている。   2. Description of the Related Art Musical sound editing apparatuses and programs that can edit and reproduce, for example, audio data (acoustic data) in which a musical sound waveform itself is recorded by recording or the like are known. For example, the technology described in Non-Patent Document 1 shown below is an example of a device related to such an apparatus. Non-Patent Document 1 shown below includes an original pitch consisting of a single continuous waveform in which a plurality of musical tones of different timbres such as instrument sounds and human voices generated at an arbitrary pitch (referred to as a note) and playback timing are mixed. A sound source separation technique for separating acoustic data into the different individual timbres and in units of notes is disclosed. In addition, the individual sound data (referred to as note sound data) separated by different timbres and in units of notes are displayed in a predetermined display mode (for example, a note graphic described later) on a predetermined editing screen such as a piano roll. The user can easily edit the original sound data in units of note sound data by appropriately operating the note graphic corresponding to each note sound data displayed on the editing screen. A technique related to so-called GUI (Graphical User Interface) is also disclosed.

さらに、下記に示す特許文献1には、同時演奏された複数の楽器音からなる音響信号(元の音響データに該当する)から、楽器音ごとに音響信号を分離する技術が開示されている。   Furthermore, Patent Document 1 shown below discloses a technique for separating an acoustic signal for each instrument sound from an acoustic signal (corresponding to the original acoustic data) composed of a plurality of instrument sounds played simultaneously.

T.Virtanen,“Sound source separation in monaural music signals ”,Ph.D.dissertation,Tampere University of Technology,2006,インターネット〈http://www.cs.tut.fi/sgn/arg/music/tuomasv/virtanen_phd.pdf〉T. Virtanen, “Sound source separation in monaural music signals”, Ph. D. dissertation, Tampere University of Technology, 2006, Internet <http://www.cs.tut.fi/sgn/arg/music/tuomasv/virtanen_phd .pdf>

国際特許出願公開WO2008/133097International Patent Application Publication WO2008 / 133097

しかし、上述したような従来の技術では、前記元の音響データを楽器音や音声等の個々の音色別かつノート単位に分離してはいるが、これらの異なる音色別かつノート単位に分離されたノート音響データを個別にあるいは音色別に複数組み合わせて再生したり、さらには編集したりすることは難しかった。すなわち、上記非特許文献1に記載の技術は、元の音響データを異なる楽器音(音色)別かつノート単位に分離するだけのものであること、また上記特許文献1に記載の技術は元の音響データを自動的に楽器音別に分類するものであるが全てを正確に分類することができないものであることから、これらの従来技術によっては、前記ノート音響データをユーザが1つ1つ試聴して楽器音(音色)を識別した上で楽器音単位に分類しておくことができなかったために、1乃至複数の特定の楽器音のノート音響データのみを選択的に再生したり編集したりすることは容易でない、という不都合があった。具体的には、特定の楽器音のノート音響データのみを再生させる1つの方法として他の楽器音のノート音響データを全て削除すればよいが、手間がかかって非常に面倒である。   However, in the conventional technology as described above, the original sound data is separated into individual timbres such as instrument sounds and voices and in units of notes, but these are separated into different timbres and in units of notes. It has been difficult to play or edit note sound data individually or in combination with a plurality of timbres. That is, the technique described in Non-Patent Document 1 is only to separate the original acoustic data for different instrument sounds (tone colors) and in units of notes, and the technique described in Patent Document 1 is the original technique. Since acoustic data is automatically classified by instrument sound, but not all can be accurately classified, according to these conventional techniques, the user listens to the note acoustic data one by one. Since the instrument sounds (tones) cannot be identified and classified into instrument sound units, only the note sound data of one or more specific instrument sounds is selectively reproduced or edited. There was an inconvenience that it was not easy. Specifically, as a method of reproducing only the note sound data of a specific instrument sound, all the note sound data of other instrument sounds may be deleted, but this is troublesome and very troublesome.

本発明は上述の点に鑑みてなされたもので、楽器音や音声といった異なる音色の楽音が複数混在してなる元の音響データの編集を、個々の音色別かつノート単位に分離した分離後の音響データ単位に行うことが容易にできるようにした楽音編集装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and after editing the original acoustic data in which a plurality of musical tones of different timbres such as instrument sounds and voices are mixed, separated into individual timbres and in units of notes. An object of the present invention is to provide a musical sound editing apparatus and program which can be easily performed in units of acoustic data.

本発明に係る楽音編集装置は、別々に発せられた複数の異なる音色の楽音が混在した1つの連続波形からなる元の音響データの分析に伴って分離される、個々の音色別かつノート単位の波形からなる多数のノート音響データの各々を、少なくともノート特定情報及び再生情報と関連付けて記憶する記憶手段と、前記多数のノート音響データそれぞれに対応付けられた複数のノート図形を、前記関連付けられたノート特定情報及び再生情報に基づく音程毎かつ再生順に配置した画面を表示する表示手段と、前記画面上に表示されたいずれかのノート図形の選択に応じて該選択されたノート図形に対応付けられているノート音響データのみを単独で再生することで、個々の音色のみからなる楽音をノート単位に独立的に発生する単音再生手段と、前記選択されたノート図形に対応付けられているノート音響データを、複数の音色グループのいずれかに振り分ける振り分け手段と、前記複数の音色グループを1つ以上選択するグループ選択手段と、前記選択された1乃至複数の音色グループそれぞれに振り分けられたノート音響データのみを前記再生情報に基づく再生順に再生することで、前記選択された音色グループに属する音色のみが混在する楽音を発生する再生手段とを備える。   The musical sound editing apparatus according to the present invention is separated according to the analysis of original sound data composed of one continuous waveform in which a plurality of different musical sounds of different timbres are mixed. Storage means for storing each of a plurality of note sound data composed of waveforms in association with at least note specifying information and reproduction information, and a plurality of note graphics associated with each of the plurality of note sound data, Display means for displaying a screen arranged for each pitch based on the note specifying information and the reproduction information and in the order of reproduction, and corresponding to the selected note graphic according to the selection of any note graphic displayed on the screen. Single note playback means for independently generating musical tones consisting only of individual timbres by playing back only the note sound data that is present, The note sound data associated with the selected note graphic is assigned to one of a plurality of timbre groups, a group selection means for selecting one or more of the plurality of timbre groups, and the selected Reproducing means for generating musical sounds in which only timbres belonging to the selected timbre group are mixed by reproducing only the note sound data allocated to each of the one or more timbre groups in the reproduction order based on the reproduction information. .

本発明の好ましい実施例として、前記画面上に表示されたそれぞれのノート図形に対するユーザ操作に応じて該当するノート音響データ並びに前記ノート特定情報及び再生情報の編集を行う編集手段をさらに備えてなり、前記選択された1乃至複数の音色グループそれぞれに振り分けられたノート音響データに対応付けられたノート図形のみを前記画面上に分別表示させておき、同じ音色グループに属する特定のノート音響データのみを抽出して編集できるようにしたことを特徴とする。   As a preferred embodiment of the present invention, it further comprises editing means for editing corresponding note sound data and the note specifying information and reproduction information in response to a user operation for each note graphic displayed on the screen, Only note graphics associated with the note sound data allocated to each of the selected one or more timbre groups are displayed separately on the screen, and only specific note sound data belonging to the same timbre group is extracted. The feature is that it can be edited.

この発明によると、個々の音色別かつノート単位の波形からなる多数のノート音響データを、画面上に表示されたノート図形を選択操作することにより複数の音色グループのいずれかに振り分けることができる。その際には、ノート図形の選択に応じて対応付けられているノート音響データのみを単独で再生することから、個々の音色のみからなる楽音をユーザが実際に試聴して自身でその音色を確認しながら振り分けを行うことができるようになっている。また、振り分け後においては、1乃至複数の音色グループそれぞれに振り分けられたノート音響データに対応付けられたノート図形のみを前記画面上に分別表示させることができ、前記画面上に表示されたそれぞれのノート図形に対するユーザ操作に応じて該当するノート音響データ並びに前記ノート特定情報及び再生情報の編集を行うことで、同じ音色グループに属する特定のノート音響データのみを抽出して編集できるようにしている。このようにして、ユーザ自身が異なる音色別かつノート単位に分離された個々のノート音響データを音色(グループ)毎に振り分けることができ、また各音色(グループ)に振り分けられたノート音響データのみを選択的に再生しながら編集することができることから、ノート音響データ単位に元の音響データの編集を行うことが容易にできるようになる。   According to the present invention, a large number of note sound data composed of waveforms of individual timbres and in units of notes can be assigned to any one of a plurality of timbre groups by selecting and operating the note graphic displayed on the screen. In that case, since only the note sound data associated with the selection of the note figure is played back independently, the user actually listens to the musical tone consisting only of each tone and confirms the tone itself It is possible to sort while. In addition, after the distribution, only the note graphic associated with the note sound data distributed to each of the one or more timbre groups can be displayed separately on the screen. By editing the corresponding note sound data and the note specifying information and the reproduction information in response to a user operation on the note graphic, only specific note sound data belonging to the same tone group can be extracted and edited. In this way, the user can distribute the individual note sound data separated for each tone color and in units of notes for each tone color (group), and only the note sound data distributed to each tone color (group). Since editing can be performed while selectively reproducing, the original sound data can be easily edited in units of note sound data.

本発明は装置の発明として構成し実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。   The present invention can be constructed and implemented not only as a device invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a storage medium storing such a program.

この発明によれば、ユーザ自身が異なる音色別かつノート単位に分離された個々のノート音響データを音色毎に振り分けることができて、また各音色に振り分けられた特定のノート音響データのみをユーザが任意に組み合わせて再生したり編集したりすることができることから、ユーザはノート音響データ単位に元の音響データの編集を行うことが容易にできるようになる、という効果を奏する。   According to this invention, the user himself / herself can distribute individual note sound data separated for each tone color and in units of notes, and the user can only assign specific note sound data allocated to each tone color. Since the reproduction and editing can be performed in any combination, the user can easily edit the original sound data in units of note sound data.

この発明に係る楽音編集装置の全体構成の一実施例を示したハード構成ブロック図である。1 is a block diagram of a hardware configuration showing an embodiment of the overall configuration of a musical sound editing apparatus according to the present invention. 元の音響データ、ノート音響データ、ノート情報、グループ情報の各データ構成の一実施例を示す概念図である。It is a conceptual diagram which shows one Example of each data structure of original sound data, note sound data, note information, and group information. メイン処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a main process. 振り分け処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a distribution process. 「振り分けモード」時に表示器に表示される音響データ編集/再生画面の一実施例を示す概念図である。It is a conceptual diagram which shows one Example of the acoustic data edit / reproduction screen displayed on a display device at the time of "sorting mode". 再生&編集処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a reproduction | regeneration & edit process. 「再生&編集モード」時に表示器に表示される音響データ編集/再生画面の一実施例を示す概念図である。It is a conceptual diagram which shows one Example of the acoustic data edit / playback screen displayed on a display device at the time of "playback & edit mode". 再生&編集の表示更新処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of the display update process of reproduction | regeneration & edit. 編集処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of an edit process. 再生処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a reproduction | regeneration process. 再生処理時における信号処理手順を説明するためのブロック図である。It is a block diagram for demonstrating the signal processing procedure at the time of reproduction | regeneration processing.

以下、この発明の実施の形態を添付図面に従って詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

図1は、この発明に係る楽音編集装置の全体構成の一実施例を示したハード構成ブロック図である。本実施例に示す楽音編集装置は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御される。CPU1は、この楽音編集装置全体の動作を制御するものである。このCPU1に対して、データ及びアドレスバス1Dを介してROM2、RAM3、設定操作子4、表示器5、デジタル信号処理回路(DSP)6、記憶装置8、通信インタフェース(I/F)9がそれぞれ接続されている。   FIG. 1 is a hardware configuration block diagram showing an embodiment of the overall configuration of a musical sound editing apparatus according to the present invention. The tone editing apparatus shown in this embodiment is controlled by a microcomputer comprising a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. The CPU 1 controls the operation of the entire musical sound editing apparatus. A ROM 2, a RAM 3, a setting operator 4, a display 5, a digital signal processing circuit (DSP) 6, a storage device 8, and a communication interface (I / F) 9 are connected to the CPU 1 via a data and address bus 1D. It is connected.

ROM2は、CPU1により実行あるいは参照される各種制御プログラムや各種データ等を格納する。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを一時的に記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、テンポラリメモリなどとして利用される。   The ROM 2 stores various control programs executed by or referred to by the CPU 1, various data, and the like. The RAM 3 is used as a working memory for temporarily storing various data generated when the CPU 1 executes a predetermined program, or as a memory for temporarily storing a currently executing program and related data. The A predetermined address area of the RAM 3 is assigned to each function, and is used as a register, a flag, a table, a temporary memory, or the like.

設定操作子(スイッチ等)4は、例えば音響データの編集開始/終了を指示する編集開始/終了指示ボタン、後述する「振り分けモード」又は「再生&編集モード」の少なくともいずれかを設定するモード選択ボタン、前記いずれかのモードへの設定に応じて表示器5上に表示される「音響データ編集/再生画面」(後述する図5及び図7参照)の音色指定のためのグループタブやノート図形等を選択したり操作したりするための各種操作子などを含んで構成される。勿論、設定操作子4は上記した以外にも数値データ入力用のテンキーや文字データ入力用のキーボード、あるいは表示器5に表示されるポインタなどを操作するマウス等の各種操作子を含んでいてもよい。   A setting operator (switch, etc.) 4 is a mode selection for setting, for example, an editing start / end instruction button for instructing editing start / end of sound data, and at least one of “sorting mode” and “playback & editing mode” to be described later Button, group tab or note graphic for tone specification of “acoustic data editing / playback screen” (see FIGS. 5 and 7 to be described later) displayed on the display 5 in accordance with the setting of any one of the modes. These are configured to include various operators for selecting and operating the etc. Of course, the setting operator 4 may include various operators such as a numeric keypad for inputting numeric data, a keyboard for inputting character data, or a mouse for operating a pointer displayed on the display unit 5 in addition to the above. Good.

表示器5は、例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイであり、後述する「音響データ編集/再生画面」(図5及び図7参照)等の各種画面を表示するのは勿論のこと、ROM2や記憶装置8等に記憶されている各種音響データや各種情報(後述する図2参照)あるいはCPU1の制御状態などを表示する。なお、表示器5は、画面上において行われたユーザタッチ操作を検出(認識)する検知機能を有するタッチパネルであってもよい。   The display 5 is a display composed of, for example, a liquid crystal display panel (LCD) or a CRT, and displays various screens such as an “acoustic data editing / playback screen” (see FIGS. 5 and 7) described later. Of course, various acoustic data and various information (see FIG. 2 to be described later) stored in the ROM 2, the storage device 8, etc., or the control state of the CPU 1 are displayed. The display 5 may be a touch panel having a detection function for detecting (recognizing) a user touch operation performed on the screen.

デジタル信号処理回路6は、音響データに対して各種の信号制御処理を行う専用のDSP(Digital Signal Processor)である。例えば、入力信号インタフェース6Aに接続された図示しないマイクやオーディオ信号の再生機器などの外部の音響機器から取得した元の音響データ(アナログ又はデジタルオーディオ信号)を記憶装置8に記憶するために適宜にA/D変換処理を行ったり、元の音響データを異なる音色別かつノート単位に分離するために周波数分析等のデータ分析処理を行ったり、アンプやスピーカからなるサウンドシステム7あるいは出力信号インタフェース6Bに接続された図示しないオーディオレコーダー等の外部の音響機器に対して、元の音響データや異なる音色別かつノート単位に分離された分離後の音響データに基づき発生される楽音やそれらのデータそのものを出力するといったユーザ指示に応じて再生処理やD/A変換処理などを行ったりする。サウンドシステム7は、デジタル信号処理回路6から出力された音響データの再生に基づき発生される楽音(楽器音のみに限らず音声等を含んでいてよい)を発音する。   The digital signal processing circuit 6 is a dedicated DSP (Digital Signal Processor) that performs various signal control processes on the acoustic data. For example, in order to store the original acoustic data (analog or digital audio signal) acquired from an external acoustic device such as a microphone (not shown) connected to the input signal interface 6A or an audio signal reproduction device in the storage device 8, as appropriate. A / D conversion processing is performed, data analysis processing such as frequency analysis is performed in order to separate the original acoustic data into different timbres and in units of notes, and the sound system 7 including the amplifier and the speaker or the output signal interface 6B Output to the connected external audio equipment such as an audio recorder (not shown) the original sound data and the musical sound generated based on the separated sound data separated by different timbres and in units of notes and those data itself Playback processing or D / A conversion processing was performed in response to user instructions such as To. The sound system 7 generates a musical sound (not only musical instrument sounds but also voices and the like) generated based on the reproduction of the acoustic data output from the digital signal processing circuit 6.

記憶装置8は、外部の音響機器等から取得した元の音響データの他に、後述するようなノート情報やグループ情報さらには編集前後の各ノート音響データ(図2参照)などの各種データ、あるいはCPU1が実行する各種制御プログラム等を記憶する。なお、上述したROM2に制御プログラムが記憶されていない場合、この記憶装置8(例えばハードディスク)に制御プログラムを記憶させておき、それをRAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1に実行させることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、記憶装置8はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD‐ROM・CD‐RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の様々な形態の可搬記憶媒体を利用した記憶装置であってもよい。あるいは、フラッシュメモリなどの半導体メモリであってもよい。   In addition to the original sound data acquired from an external sound device or the like, the storage device 8 stores various data such as note information and group information as described later, and each note sound data before and after editing (see FIG. 2), or Various control programs executed by the CPU 1 are stored. When the control program is not stored in the ROM 2 described above, the control program is stored in the storage device 8 (for example, a hard disk) and is read into the RAM 3 to store the control program in the ROM 2. It is possible to cause the CPU 1 to execute the same operation as in FIG. In this way, control programs can be easily added and upgraded. The storage device 8 is not limited to a hard disk (HD), but may be a flexible disk (FD), a compact disk (CD-ROM / CD-RAM), a magneto-optical disk (MO), or a DVD (Digital Versatile Disk). It may be a storage device using a portable storage medium in the form. Alternatively, a semiconductor memory such as a flash memory may be used.

通信インタフェース(I/F)9は、ネットワークを介して当該装置と図示しない外部機器との間で制御プログラムや上記したような元の音響データなどの各種情報を送受信するためのインタフェースである。この通信インタフェース9は、例えばMIDIインタフェース,LAN,インターネット,電話回線等であってよく、また有線あるいは無線のものいずれかでなく双方を具えていてよい。なお、元の音響データを多数納めたファイルを上記したような可搬記憶媒体やネットワーク経由でサーバ機器等から取得することができてよい。その場合のファイル形式は、例えばデータ圧縮していない音声フォーマットであるWAV形式あるいはデータ圧縮しているMP3形式など、公知のどのような形式であってもよい。   The communication interface (I / F) 9 is an interface for transmitting and receiving various information such as a control program and the original acoustic data as described above between the apparatus and an external device (not shown) via a network. The communication interface 9 may be, for example, a MIDI interface, a LAN, the Internet, a telephone line, or the like, and may include both wired and wireless ones. It should be noted that a file containing a large number of original acoustic data may be acquired from a portable storage medium as described above or a server device via a network. In this case, the file format may be any known format such as a WAV format which is an audio format without data compression or an MP3 format with data compression.

なお、本発明に係る楽音編集装置及びプログラムは電子楽器や自動演奏装置、パーソナルコンピュータ、携帯電話等の携帯型通信端末、あるいはカラオケ装置やゲーム装置など、どのような形態の装置・機器に適用してもよい。携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバ側に持たせ、端末とサーバとからなるシステム全体として所定の機能を実現するようにしてもよい。   The musical sound editing apparatus and program according to the present invention can be applied to any type of apparatus / equipment such as an electronic musical instrument, an automatic performance apparatus, a personal computer, a portable communication terminal such as a mobile phone, a karaoke apparatus, or a game apparatus. May be. When applied to a portable communication terminal, not only when a predetermined function is completed with only the terminal, but also a part of the function is provided on the server side, and the predetermined function is realized as a whole system composed of the terminal and the server. You may make it do.

次に、ROM2あるいは記憶装置8等に記憶される元の音響データ、元の音響データを異なる楽器音(音色)かつノート単位に分離したノート音響データ、前記各ノート音響データに対応するノート情報、前記ノート音響データを異なる楽器音毎に管理するグループ情報について、図2を用いて説明する。   Next, the original sound data stored in the ROM 2 or the storage device 8, etc., note sound data obtained by separating the original sound data into different instrument sounds (tones) and in units of notes, note information corresponding to each note sound data, Group information for managing the note sound data for each different instrument sound will be described with reference to FIG.

図2(A)は元の音響データの一例をエンベロープ波形によって示したものであり、ここに示される元の音響データはそれぞれが任意の音程(ノート)かつタイミングで別々の音源から発生された複数の異なる音色の楽器それぞれの楽音波形が混ざりあいかつ複数の楽器音毎に異なるあるいは同じ音程(ノート)が連続して発生された状態の1つの連続波形からなる波形データである。   FIG. 2 (A) shows an example of original sound data by an envelope waveform. The original sound data shown here is a plurality of pieces generated from different sound sources at arbitrary pitches (notes) and timings. This is waveform data composed of one continuous waveform in which musical tone waveforms of musical instruments of different timbres are mixed and different or the same pitches (notes) are continuously generated for a plurality of musical instrument sounds.

他方、図2(B)に示されるオリジナルのノート音響データ(オリジナルデータと呼ぶ)は、上記した元の音響データを周波数分析等の分析処理によって異なる楽器音別かつノート単位に分離した波形データである。例えば上記した非特許文献1に記載の技術によれば、ある同一時刻範囲においてピアノ音の「C4」とギター音の「E4」とが同時に発生され、さらにその後に続く同一時刻範囲においてピアノ音の「G4」とギター音の「E4」とが同時に発生される元の音響データは、先行する時刻範囲についてピアノ音の「C4」のオリジナルデータとギター音の「E4」のオリジナルデータに分離され、後続する時刻範囲についてピアノ音の「G4」のオリジナルデータとギター音の「E4」のオリジナルデータとにそれぞれ分離されることになる。   On the other hand, the original note sound data (referred to as original data) shown in FIG. 2 (B) is waveform data obtained by separating the original sound data described above into different instrument sounds and note units by analysis processing such as frequency analysis. . For example, according to the technique described in Non-Patent Document 1, the piano sound “C4” and the guitar sound “E4” are simultaneously generated in a certain time range, and the piano sound in the same time range that follows is generated. The original acoustic data in which “G4” and the guitar sound “E4” are generated simultaneously are separated into the original data of the piano sound “C4” and the original data of the guitar sound “E4” for the preceding time range, The subsequent time range is separated into the original data of the piano sound “G4” and the original data of the guitar sound “E4”.

また、前記オリジナルデータに対してユーザによる編集が行われた場合には、前記オリジナルデータとは別に編集後のノート音響データ(編集データと呼ぶ)が生成される。すなわち、オリジナルデータの編集が行われない限り、そのオリジナルデータに対応する編集データは生成されない。このような編集データの生成を伴うオリジナルデータの編集は、例えばピッチ変更やフォルマント変更あるいは時間圧伸などのような波形形状の変更を伴う編集である。   When the original data is edited by the user, edited note sound data (referred to as edit data) is generated separately from the original data. That is, unless the original data is edited, edit data corresponding to the original data is not generated. The editing of the original data accompanied by the generation of the editing data is an editing accompanied by a change in waveform shape such as a pitch change, a formant change or a time companding.

元の音響データを分析処理して前記ノート音響データを生成するのにあわせて、当該ノート音響データに対応するノート情報が生成される。ノート情報にはオリジナル属性情報とカレント属性情報が登録されており、オリジナル属性情報は編集前のノート音響データ(オリジナルデータ)の属性を表し、カレント属性情報は編集後のノート音響データ(編集データ)の属性を表す。ただし、ノート情報生成時はそれらの属性情報の内容は同一であって、後述する「音響データ編集/再生画面」(図5参照)を用いての編集操作に応じてカレント属性情報における該当の属性情報が適宜に変更される。すなわち、オリジナル属性情報はノート情報の作成時から変更されることなく、カレント属性情報のみが編集操作に応じて適宜に変更されるようになっている。   As the note sound data is generated by analyzing the original sound data, note information corresponding to the note sound data is generated. Original attribute information and current attribute information are registered in the note information. The original attribute information represents the attribute of the note sound data (original data) before editing, and the current attribute information is the note sound data (edited data) after editing. Represents the attribute of. However, when the note information is generated, the contents of the attribute information are the same, and the corresponding attribute in the current attribute information according to an editing operation using an “acoustic data editing / playback screen” (see FIG. 5) described later. Information is changed as appropriate. That is, the original attribute information is not changed from when the note information is created, and only the current attribute information is appropriately changed according to the editing operation.

前記オリジナル属性情報(又はカレント属性情報)は、基本周波数(ノート特定情報),タイムスタート開始時刻及びタイムエンド終了時刻(再生情報),ベロシティ,オリジナルデータ(又は編集データ)への参照情報などを含む。基本周波数はオリジナルデータ(又は編集データ)の音程(ノート)を表す情報であって、例えば半音単位の各音程毎に決められている所定の周波数である(例えばE4=330Hz, A4=440Hzなど)。タイムスタート開始時刻は元のノート音響データのスタート時刻を基準にした各オリジナルデータ(又は編集データ)の開始時刻、タイムエンド終了時刻は元のノート音響データのスタート時刻を基準にした各オリジナルデータ(又は編集データ)の終了時刻である。タイムスタート開始時刻からタイムエンド終了時刻までの時間は、各オリジナルデータ(又は編集データ)の相対的な音の長さに相当する。オリジナルデータ(又は編集データ)への参照情報は対応するオリジナルデータ(又は編集データ)の記憶位置などを指し示す情報であって、例えば記憶アドレスやデータ名などのようなオリジナルデータ(又は編集データ)を記憶した記憶装置8の記憶位置を特定しそれらのデータを参照したり読み出したりすることが可能な情報であればどのような情報であってもよい。   The original attribute information (or current attribute information) includes basic frequency (note specific information), time start start time and time end end time (playback information), velocity, reference information to original data (or edit data), and the like. . The fundamental frequency is information indicating the pitch (note) of the original data (or edited data), and is a predetermined frequency determined for each pitch in units of semitones (for example, E4 = 330 Hz, A4 = 440 Hz, etc.) . The time start start time is the start time of each original data (or edited data) based on the start time of the original note sound data, and the time end end time is each original data based on the start time of the original note sound data ( (Or edit data) end time. The time from the time start start time to the time end end time corresponds to the relative sound length of each original data (or edit data). The reference information to the original data (or edit data) is information indicating the storage position of the corresponding original data (or edit data). For example, the original data (or edit data) such as a storage address or a data name is used. Any information may be used as long as it can identify the storage position of the stored storage device 8 and refer to or read the data.

グループ情報は、後述する「音響データ編集/再生画面」(図5参照)を用いてのユーザ操作にあわせて同じ楽器音(音色グループ)に振り分けられた1乃至複数のノート音響データを一括管理するための情報であって、「音響データ編集/再生画面」において予め用意されている「ALL」タブ以外に新規のグループタブが生成されることに応じて生成される。したがって、各グループ情報は「音響データ編集/再生画面」に表示される「ALL」以外のグループタブに対応して記憶されていることになる。このグループ情報は、例えば分類した楽器音(音色グループ)の種類が分かるようなグループ名の文字列(例えばピアノ音やギター音あるいはボーカル音など)、「音響データ編集/再生画面」上で同一グループのノート音響データを表示する際のグループ色の指定情報、当該楽器音のグループとして振り分けられたノート音響データに対応したノート情報への参照情報を含む。なお、生成された直後のグループ情報のノート情報リストには何も記載されていない。   The group information collectively manages one or more note sound data distributed to the same instrument sound (tone group) in accordance with a user operation using an “acoustic data editing / playback screen” (see FIG. 5) described later. This information is generated in response to the generation of a new group tab other than the “ALL” tab prepared in advance in the “acoustic data editing / playback screen”. Therefore, each group information is stored corresponding to a group tab other than “ALL” displayed on the “acoustic data editing / playback screen”. This group information is, for example, a character string of a group name (for example, piano sound, guitar sound, vocal sound, etc.) that identifies the type of classified instrument sound (tone group), and the same group on the “acoustic data editing / playback screen” Group color designation information when displaying the note sound data, and reference information to the note information corresponding to the note sound data distributed as a group of the instrument sound. Note that nothing is described in the note information list of the group information immediately after generation.

次に、記憶装置8等に記憶されている上記元の音響データ(図2(A)参照)を、異なる楽器音かつノート単位に分離されたノート音響データ単位に編集する「メイン処理」について説明する。図3は、「メイン処理」の一実施例を示すフローチャートである。当該処理は、例えばユーザによる編集開始/終了指示ボタンの操作に応じて開始される。   Next, “main processing” for editing the original sound data (see FIG. 2A) stored in the storage device 8 or the like into note sound data units separated into different instrument sounds and note units will be described. To do. FIG. 3 is a flowchart showing an example of “main processing”. This process is started, for example, in response to an operation of an edit start / end instruction button by the user.

ステップS1は、ユーザ操作に応じて指定された元の音響データを記憶装置8等からRAM3に読み込む。ステップS2は、前記読み込んだ元の音響データを例えば上記した非特許文献1に記載の公知技術に従う分析処理を行うことによって異なる楽器音かつノート単位に分離し記憶装置8に記憶すると共に、分離した異なる楽器音かつノート単位の各ノート音響データに関するノート情報(オリジナル属性情報及びカレント属性情報)を生成し記憶装置8に記憶する。ステップS3は、ユーザ操作に応じて該当する処理への切り替えを実行する。ユーザ操作がモード選択ボタンによる「振り分けモード」への指定操作である場合には、「振り分け処理」を実行する(ステップS4)。ユーザ操作がモード選択ボタンによる「再生&編集モード」への指定操作である場合には、「再生&編集処理」を実行する(ステップS5)。上記各処理についての詳細は後述する。ユーザ操作が編集開始/終了指示ボタンによる終了操作である場合には、当該処理を終了する。   In step S1, original acoustic data designated in accordance with a user operation is read into the RAM 3 from the storage device 8 or the like. In step S2, the read original sound data is separated into different instrument sounds and note units by performing an analysis process according to the known technique described in Non-Patent Document 1, for example, and stored in the storage device 8 and separated. Note information (original attribute information and current attribute information) relating to different musical instrument sounds and note audio data in units of notes is generated and stored in the storage device 8. In step S3, switching to a corresponding process is executed in accordance with a user operation. If the user operation is a designation operation for “sorting mode” by the mode selection button, “sorting process” is executed (step S4). If the user operation is a designation operation to “playback & editing mode” by the mode selection button, “playback & editing processing” is executed (step S5). Details of each process will be described later. If the user operation is an end operation using the edit start / end instruction button, the process ends.

上記「振り分け処理」(図3のステップS4参照)について、図4及び図5を用いて説明する。図4は、「振り分け処理」の一実施例を示すフローチャートである。図5は、「振り分けモード」時に表示器5に表示される「音響データ編集/再生画面」の一実施例を示す概念図である。   The “sorting process” (see step S4 in FIG. 3) will be described with reference to FIGS. FIG. 4 is a flowchart showing an example of the “sorting process”. FIG. 5 is a conceptual diagram showing an example of an “acoustic data editing / playback screen” displayed on the display 5 in the “distribution mode”.

ステップS11は、記憶装置8に記憶されている全てのノート情報に関し、それらの基本周波数と開始時刻と終了時刻とベロシティに応じた位置と大きさ、かつグループ情報が既にある場合には指定のグループ色で色付けした所定の表示態様の図形(ノート図形)をノート単位に演奏順に並べた初期状態(ユーザ自身が楽器音毎に各ノート音響データを振り分ける操作を行う前)の「音響データ編集/再生画面」を表示器5に表示する。ここで一例として、後述する「再生&編集処理」(図6参照)の実行に伴って「Vocal」,「Piano」,「Bass」の3つのグループが作成済みであり、またどのノート音響データも未だ前記グループのいずれにも振り分けられていない状態の「音響データ編集/再生画面」を図5(A)に示す。   Step S11 relates to all the note information stored in the storage device 8, the position and size according to the fundamental frequency, the start time, the end time, and the velocity, and the specified group if group information already exists. “Sound data editing / playback” in the initial state (before the user himself / herself assigns each note sound data to each instrument sound) in which the figure (note figure) of a predetermined display mode colored in color is arranged in the order of performance in units of notes “Screen” is displayed on the display 5. As an example, three groups of “Vocal”, “Piano”, and “Bass” have already been created in accordance with the execution of “playback & editing process” (see FIG. 6), which will be described later, and any note sound data is also created. FIG. 5A shows an “acoustic data editing / playback screen” that is not yet assigned to any of the groups.

図5(A)に示すように「音響データ編集/再生画面」Aには、元の音響データを異なる音色別かつノート単位に分離することに応じて生成される各々のノート情報に対応するノート図形Cが、横軸が時間軸で縦軸が音程軸(周波数軸)とからなる2次元平面上に表示される。各ノート図形Cは、ノート情報の基本周波数(特定の音程に相当)によって縦軸方向の表示位置が決まる一方で、タイムスタート開始時刻(演奏タイミングに相当)によって横軸方向の表示位置が決まる。また、タイムスタート開始時刻とタイムエンド終了時刻とによって横軸方向の図形幅(音長に相当)が決まる一方で、ベロシティによって縦軸方向の図形幅(音量に相当)が決まるようになっている。そして、どのノート音響データも未だ前記グループのいずれにも振り分けられていない状態では、前記ノート図形Cの全てについて予め決められたグループ色に色付けされていない。   As shown in FIG. 5A, the “acoustic data editing / playback screen” A has notes corresponding to each piece of note information generated in accordance with separating the original acoustic data into different timbres and in units of notes. The figure C is displayed on a two-dimensional plane in which the horizontal axis is a time axis and the vertical axis is a pitch axis (frequency axis). In each note graphic C, the display position in the vertical axis direction is determined by the fundamental frequency (corresponding to a specific pitch) of the note information, while the display position in the horizontal axis direction is determined by the time start start time (corresponding to the performance timing). The graphic width in the horizontal axis direction (corresponding to the sound length) is determined by the time start start time and the time end end time, while the graphic width in the vertical axis direction (corresponding to the volume) is determined by velocity. . In a state in which no note sound data has been assigned to any of the groups, all the note graphics C are not colored in a predetermined group color.

ユーザ操作に応じて「Vocal」,「Piano」,「Bass」の3つのグループが新規作成されると、それぞれに対応するグループタブBが画面上部に追加表示される(後述する図6のステップS32参照)。ただし、こうしたグループの新規作成だけでは、どのノート音響データも未だ前記グループのいずれにも振り分けられていない状態であることから、どのノート図形Cも色付けされない。なお、グループは新規作成することだけでなく削除することもでき、その場合には対応するグループタブBの表示(及びグループ情報の該当するノート情報への参照情報)が削除されて、削除されたグループに振り分けられていたノート音響データはどのグループにも属さないものとなる。   When three groups of “Vocal”, “Piano”, and “Bass” are newly created in response to a user operation, a corresponding group tab B is additionally displayed at the top of the screen (step S32 in FIG. 6 described later). reference). However, only by newly creating such a group, any note sound data has not yet been assigned to any of the groups, and thus no note graphic C is colored. In addition, the group can be deleted as well as newly created. In this case, the display of the corresponding group tab B (and reference information to the corresponding note information of the group information) is deleted and deleted. The note sound data distributed to the group does not belong to any group.

図4の説明に戻って、ステップS12は、「音響データ編集/再生画面」Aに表示されているノート図形Cのいずれかが長押し操作されたか否かを判定する。ノート図形Cのいずれも長押し操作されていないと判定した場合には(ステップS12のNO)、ステップS15の処理へジャンプする。ノート図形Cのいずれかが長押し操作されたと判定した場合には(ステップS12のYES)、操作されたノート図形Cに対応するノート情報に基づき該当するノート音響データを検索し発音させる(ステップS13)。すなわち、ユーザはノート図形Cを長押し操作することで対応するノート音響データに基づき再生される楽音を試聴することができるので、これにより各ノート音響データを振り分ける前にどのような楽器音の楽音を発するデータであるかを自身が聴いて確認することができる。ステップS14は、操作されたノート図形Cに対応するノート情報を振り分け対象として選択する。   Returning to the description of FIG. 4, in step S <b> 12, it is determined whether or not any of the note graphics C displayed on the “acoustic data editing / playback screen” A has been pressed. If it is determined that none of the note graphics C has been pressed (NO in step S12), the process jumps to step S15. If it is determined that any one of the note graphics C has been pressed (YES in step S12), the corresponding note sound data is searched based on the note information corresponding to the operated note graphics C and pronounced (step S13). ). That is, the user can audition the musical sound to be reproduced based on the corresponding note sound data by long-pressing the note graphic C, so that the musical sound of any musical instrument sound can be obtained before distributing each note sound data. It is possible to confirm whether or not it is the data that emits. In step S14, note information corresponding to the operated note graphic C is selected as a distribution target.

ステップS15は、「音響データ編集/再生画面」Aに表示されているノート図形Cのいずれかが短押し操作されたか否かを判定する。ノート図形Cのいずれも短押し操作されていないと判定した場合には(ステップS15のNO)、ステップS19の処理へジャンプする。ノート図形Cのいずれかが短押し操作されたと判定した場合には(ステップS15のYES)、操作されたノート図形Cに対応するノート情報を振り分け対象として選択する(ステップS16)。ステップS17は、「音響データ編集/再生画面」Aにおいて特定のグループタブBが選択されている状態であるか否かを判定する。特定のグループタブBが選択されている状態でないと判定した場合には(ステップS17のNO)、ステップS19の処理へジャンプする。特定のグループタブBが選択されている状態であると判定した場合には(ステップS17のYES)、振り分け対象として選択されているノート情報を参照するための参照情報を前記特定のグループタブBに対応するグループ情報(振り分け先)に書き込むことによって、前記ノート情報に対応するノート音響データを前記特定のグループに属するように振り分ける(ステップS18)。   In step S15, it is determined whether or not any of the note graphics C displayed on the “acoustic data editing / playback screen” A has been short-pressed. If it is determined that none of the note graphics C has been pressed (NO in step S15), the process jumps to step S19. If it is determined that any of the note graphics C has been pressed for a short time (YES in step S15), the notebook information corresponding to the operated note graphic C is selected as a sorting target (step S16). In step S17, it is determined whether or not a specific group tab B is selected on the “acoustic data editing / playback screen” A. If it is determined that the specific group tab B is not selected (NO in step S17), the process jumps to step S19. When it is determined that the specific group tab B is selected (YES in step S17), reference information for referring to the note information selected as the distribution target is displayed in the specific group tab B. By writing in the corresponding group information (distribution destination), the notebook sound data corresponding to the note information is distributed so as to belong to the specific group (step S18).

ステップS19は、「音響データ編集/再生画面」Aに表示されているグループタブBの選択操作がされたか否かを判定する。グループタブBの選択操作がされていないと判定した場合には(ステップS19のNO)、ステップS23の処理へジャンプする。グループタブBの選択操作がされたと判定した場合には(ステップS19のYES)、選択されたグループタブBに対応するグループ情報を振り分け先に選択する(ステップS20)。ステップS21は、特定のノート情報が振り分け対象として選択されているか否かを判定する。特定のノート情報が選択されていないと判定した場合には(ステップS21のNO)、ステップS23の処理へジャンプする。特定のノート情報が選択されたと判定した場合には(ステップS21のYES)、特定のノート情報が選択されているグループ情報(振り分け先)に属するように振り分ける(ステップS22)。   A step S19 decides whether or not the selection operation of the group tab B displayed on the “acoustic data editing / playback screen” A has been performed. If it is determined that the group tab B is not selected (NO in step S19), the process jumps to step S23. If it is determined that the group tab B selection operation has been performed (YES in step S19), group information corresponding to the selected group tab B is selected as a distribution destination (step S20). In step S21, it is determined whether or not specific note information is selected as a distribution target. If it is determined that specific note information is not selected (NO in step S21), the process jumps to the process in step S23. If it is determined that the specific note information has been selected (YES in step S21), the specific note information is distributed so as to belong to the selected group information (distribution destination) (step S22).

ステップS23は、振り分けモード終了操作がされたか否かを判定する。振り分けモード終了操作がされていないと判定した場合には(ステップS23のNO)、ステップS12の処理に戻って上記各処理を繰り返し実行する。振り分けモード終了操作がされたと判定した場合には(ステップS23のYES)、当該処理を終了する。   In step S23, it is determined whether or not a sorting mode end operation has been performed. If it is determined that the distribution mode end operation has not been performed (NO in step S23), the process returns to step S12 and the above processes are repeatedly executed. If it is determined that the distribution mode end operation has been performed (YES in step S23), the process ends.

上述したように、振り分けモード時においては「音響データ編集/再生画面」Aに、ノート音響データ(ノート情報)それぞれに対応したノート図形Cのすべてを表示できるようになっており、ユーザがそれらのノート図形Cと「ALL」タブ以外のグループタブBとを適宜に選択して組み合わせることで、各ノート音響データを各グループに振り分けることができる。一例を図5(B)に示す。図5(B)ではグループタブ「Piano」がクリックされ、振り分け先としてグループ「Piano」が選択されている。振り分け先のグループを選択した状態のままでいずれかのノート図形(ここではC´)を短押しでクリックするとそのノート図形C´が選択されて、当該ノート図形C´に対応するノート音響データ(ノート情報)が選択されている振り分け先のグループ「Piano」に振り分けられる。1つのグループを振り分け先に選択したまま、複数のノート図形Cを次々と短押しクリックしていくことでそれらに対応する複数のノート音響データを同じグループに振り分けることができる。なお、ノート音響データをグループに振り分け済みのノート図形Cについては、予め決められているグループ色によって色づけ表示されることによって、振り分けが行われていない他のノート図形Cと区別することができるようになっている。   As described above, in the distribution mode, all of the note graphic C corresponding to each of the note acoustic data (note information) can be displayed on the “acoustic data editing / playback screen” A, and the user can display them. Each note sound data can be distributed to each group by appropriately selecting and combining the note graphic C and the group tab B other than the “ALL” tab. An example is shown in FIG. In FIG. 5B, the group tab “Piano” is clicked, and the group “Piano” is selected as the distribution destination. If any of the note graphics (here, C ′) is clicked with a short press while the distribution group is selected, the note graphic C ′ is selected, and the note acoustic data corresponding to the note graphic C ′ ( Note information) is distributed to the selected distribution group “Piano”. While a single group is selected as a distribution destination, a plurality of note graphic data corresponding to them can be distributed to the same group by short-pressing and clicking a plurality of note figures C one after another. Note that note graphics C to which note sound data has been allocated to groups can be distinguished from other note graphics C that have not been allocated by being colored and displayed in a predetermined group color. It has become.

一方、振り分け先のグループを選択した状態のままでいずれかのノート図形を長押しでクリックするとそのノート図形Cが選択しなおされて、当該選択されたノート図形Cに対応するノート音響データの再生が行われる。この場合、選択と再生が行われるだけでノート音響データのグループへの振り分けは行われない。このように長短をかえてノート図形Cを順次にクリックしていくことによって、次々とノート音響データ単位に楽音を試聴しながら各ノート音響データのグループへの振り分けを進めることができるようになっている。   On the other hand, when one of the note graphics is clicked with a long press while the distribution group is selected, the note graphic C is selected again, and the note sound data corresponding to the selected note graphic C is reproduced. Is done. In this case, only the selection and reproduction are performed, and the distribution of the notebook sound data is not performed. In this way, by sequentially clicking on the note graphic C with different lengths, it is possible to proceed with the distribution of each note sound data to a group while listening to musical sounds in units of note sound data. Yes.

なお、一旦あるノート図形Cについてノート音響データをグループに振り分けた後に、当該ノート図形Cが選択された状態のまま異なるグループタブBをクリックすることで、当該ノート図形Cに対応するノート音響データの振り分け先を変更することができる。その場合、振り分け先変更前のグループ情報におけるノート情報への参照情報の削除と変更後のグループ情報におけるノート情報への参照情報の追加が行われることは言うまでもない。   Note that once the note sound data is assigned to a group of note graphics C, clicking on a different group tab B while the note graphic C is selected allows the note sound data corresponding to the note graphic C to be selected. The distribution destination can be changed. In this case, it goes without saying that the reference information is deleted from the note information in the group information before the distribution destination is changed and the reference information is added to the note information in the group information after the change.

次に、上記「再生&編集処理」(図3のステップS5参照)について図6を用いて説明する。図6は、「再生&編集処理」の一実施例を示すフローチャートである。図7は、「再生&編集モード」時に表示器5に表示される「音響データ編集/再生画面」の一実施例を示す概念図である。   Next, the “playback & editing process” (see step S5 in FIG. 3) will be described with reference to FIG. FIG. 6 is a flowchart showing an example of the “playback & editing process”. FIG. 7 is a conceptual diagram showing an example of an “acoustic data editing / playback screen” displayed on the display 5 in the “playback & editing mode”.

ステップS31は、ユーザによるグループタブBの操作に応じてグループの選択を変更し、「音響データ編集/再生画面」の表示を更新する。これにより、選択されたグループに振り分けられたノート音響データに対応するノート図形Cのみが「音響データ編集/再生画面」に表示される(図7(B)参照)。ステップS32は、ユーザ操作に応じてグループの新規作成、削除、グループ名やグループ色の変更をし、「音響データ編集/再生画面」の表示を更新する(図8参照)。ステップS33は、ユーザ操作に応じて編集処理を実行し(図9参照)、前記処理の実行に応じて「音響データ編集/再生画面」の表示を更新する(図8参照)。ステップS34は、ユーザ操作に応じて再生処理の別タスクを制御する(図10参照)。ステップS35は、再生&編集モード終了操作がされたか否かを判定する。再生&編集モード終了操作がされていないと判定した場合には(ステップS35のNO)、ステップS31の処理に戻って上記各処理を繰り返し実行する。再生&編集モード終了操作がされたと判定した場合には(ステップS35のYES)、当該処理を終了する。   A step S31 changes the selection of the group in accordance with the operation of the group tab B by the user, and updates the display of the “acoustic data editing / playback screen”. As a result, only the note graphic C corresponding to the note acoustic data distributed to the selected group is displayed on the “acoustic data editing / playback screen” (see FIG. 7B). In step S32, a new group is created or deleted, the group name or group color is changed in accordance with the user operation, and the display of the “acoustic data editing / playback screen” is updated (see FIG. 8). In step S33, an editing process is executed in accordance with the user operation (see FIG. 9), and the display of the “acoustic data editing / playback screen” is updated in accordance with the execution of the process (see FIG. 8). In step S34, another task of the reproduction process is controlled according to the user operation (see FIG. 10). In step S35, it is determined whether or not a reproduction & editing mode end operation has been performed. If it is determined that the playback & editing mode end operation has not been performed (NO in step S35), the process returns to step S31 and the above processes are repeatedly executed. If it is determined that the playback & editing mode end operation has been performed (YES in step S35), the processing ends.

図7(A)に示した「音響データ編集/再生画面」Aは、異なる音色別かつノート単位に分離された複数のノート音響データのそれぞれが「Vocal」,「Piano」,「Bass」の3つのグループのいずれかに振り分けられている状態で、「ALL」タブが選択されている場合の表示例である。図7(A)を図5(A)と比較してみると、各ノート図形Cが振り分け先のグループ色に色付けされている点が異なる以外に、再生位置を示す再生位置指示図形Dが表示されている点が異なる。この再生位置指示図形Dは例えば再生の進行にあわせて図面左から右へと移動することによって、ユーザに対して再生中のノート音響データに対応するノート図形Cを明示する。なお、この図7(A)に示すような「ALL」タブが選択されている状態で再生が行われると、元の音響データに含まれている全ての楽器音(音色)が混在した楽音が発音されることになる。   In the “acoustic data editing / playback screen” A shown in FIG. 7A, each of a plurality of note acoustic data separated by different timbres and in units of notes is “Vocal”, “Piano”, “Bass”. This is a display example when the “ALL” tab is selected in the state of being distributed to one of the two groups. When FIG. 7A is compared with FIG. 5A, in addition to the difference that each note graphic C is colored in the group color of the distribution destination, a reproduction position instruction graphic D indicating the reproduction position is displayed. Is different. For example, the reproduction position instruction graphic D moves from the left to the right of the drawing in accordance with the progress of the reproduction, thereby clearly indicating the note graphic C corresponding to the note sound data being reproduced to the user. If playback is performed with the “ALL” tab as shown in FIG. 7A selected, a musical tone in which all instrument sounds (tones) included in the original acoustic data are mixed is obtained. It will be pronounced.

一方、図7(B)に示す「音響データ編集/再生画面」Aは、グループタブ「Piano」をクリックすることで特定のグループ「Piano」が選択された場合の表示例を示したものである。この場合、「音響データ編集/再生画面」Aには「Piano」グループに振り分けられたノート音響データに対応するノート図形Cのみが表示される。この状態で再生が行われると、表示中のノート図形C(図中では5つ)に対応する各ノート音響データが再生されることになり、例えば「ピアノ音色」などの同一音色の楽音のみが発音されることになる。   On the other hand, an “acoustic data editing / playback screen” A shown in FIG. 7B shows a display example when a specific group “Piano” is selected by clicking the group tab “Piano”. . In this case, only the note graphic C corresponding to the note acoustic data distributed to the “Piano” group is displayed on the “acoustic data editing / playback screen” A. When playback is performed in this state, each note sound data corresponding to the currently displayed note graphic C (five in the figure) is played back, and for example, only musical sounds of the same tone such as “piano tone” are played. It will be pronounced.

また、「ALL」タブ以外のグループタブ選択に関しては同時に複数のグループタブBを選択することができてよく、その場合には選択された複数のグループタブBに該当するグループのいずれかに振り分けられたノート音響データに対応するノート図形Cが全て同じ画面上に表示される。この状態で再生が行われると、表示中のノート図形Cに対応する各ノート音響データが再生されることになり、選択された複数のグループの音色が混在した楽音が発音されることになる。   In addition, regarding group tab selection other than the “ALL” tab, a plurality of group tabs B may be selected at the same time, and in that case, the group tabs are distributed to one of the groups corresponding to the selected group tabs B. All the note graphics C corresponding to the note sound data are displayed on the same screen. When playback is performed in this state, each piece of note sound data corresponding to the note graphic C being displayed is played back, and a musical tone in which the tone colors of a plurality of selected groups are mixed is generated.

なお、「ALL」タブ以外のタブ選択を行った場合に、選択されていないグループに振り分けられたノート音響データに対応するノート図形Cについては全く表示しなくてもよいし、あるいは選択されたグループのいずれかに振り分けられたノート音響データに対応するノート図形Cとは異なる表示態様で(例えば図7(B)に示すように薄く)表示するようにしてもよい。   When a tab other than the “ALL” tab is selected, the note graphic C corresponding to the note sound data allocated to the unselected group may not be displayed at all, or the selected group may be displayed. May be displayed in a display mode different from the note graphic C corresponding to the note sound data distributed to any of the above (for example, as thin as shown in FIG. 7B).

次に、「再生&編集の表示更新処理」(図6のステップS31及びS32)について説明する。図8は、「再生&編集の表示更新処理」の一実施例を示すフローチャートである。上述したように、ステップS31ではグループ選択の変更をした上で表示を更新する。また、ステップS32ではグループについての編集操作をした上で表示を更新する。ここでは、ステップS31及びステップS32の各処理内で同様に行われる表示の更新についてのみ詳細に説明する。   Next, “reproduction & editing display update processing” (steps S31 and S32 in FIG. 6) will be described. FIG. 8 is a flowchart showing an example of “reproduction & editing display update processing”. As described above, the display is updated after changing the group selection in step S31. In step S32, the display is updated after an editing operation for the group. Here, only the display update performed in the same manner in each process of step S31 and step S32 will be described in detail.

ステップS41は、処理対象として記憶装置8に記憶されているグループ情報を順に特定する。ステップS42は、「音響データ編集/再生画面」Aに表示されている前記特定したグループ情報に対応するグループタブが選択されているか否かを判定する。グループ情報に対応するグループタブが選択されていないと判定した場合には(ステップS42のNO)、ステップS44の処理へジャンプする。グループ情報に対応するグループタブが選択されていると判定した場合には(ステップS42のYES)、ノート情報リストの参照情報に基づく各ノート情報の基本周波数と開始時刻と終了時刻とベロシティに応じた位置と大きさで、かつ指定のグループ色でノート図形Cを表示する(ステップS43)。ステップS44は、すべてのグループを処理したか否かを判定する。すべてのグループを処理していないと判定した場合には(ステップS44のNO)、ステップS41の処理に戻って上記各処理を繰り返し実行する。すべてのグループを処理したと判定した場合には(ステップS44のYES)、当該処理を終了する。   Step S41 specifies the group information memorize | stored in the memory | storage device 8 as a process target in order. In step S42, it is determined whether or not a group tab corresponding to the specified group information displayed on the “acoustic data editing / playback screen” A is selected. If it is determined that the group tab corresponding to the group information is not selected (NO in step S42), the process jumps to step S44. If it is determined that the group tab corresponding to the group information is selected (YES in step S42), the basic frequency, start time, end time, and velocity of each note information based on the reference information in the note information list are determined. The note graphic C is displayed in the position and size and in the specified group color (step S43). A step S44 decides whether or not all groups have been processed. If it is determined that not all groups have been processed (NO in step S44), the process returns to step S41 and the above processes are repeated. If it is determined that all groups have been processed (YES in step S44), the process ends.

なお、グループ情報に対応するグループタブが選択されていないと判定した場合には(ステップS42のNO)、ノート情報リストの参照情報に基づく各ノート情報の基本周波数と開始時刻と終了時刻とベロシティに応じた位置と大きさで、かつ指定のグループ色で上記ステップS43の処理で表示する図形とは異なる表示態様で(例えば図7(B)に示すように薄く)図形を表示するようにしてもよい。   If it is determined that the group tab corresponding to the group information is not selected (NO in step S42), the basic frequency, start time, end time, and velocity of each note information based on the reference information in the note information list are set. The figure may be displayed in a display mode (for example, as shown in FIG. 7B) that is different from the figure displayed in the process of step S43 in the position and size according to the specified group color. Good.

次に、「編集処理」(図6のステップS33)について説明する。図9は、「編集処理」の一実施例を示すフローチャートである。   Next, the “editing process” (step S33 in FIG. 6) will be described. FIG. 9 is a flowchart showing an example of the “editing process”.

ステップS51は、「音響データ編集/再生画面」A上をポイントされ、そのポイント位置にアクティブなノート図形Cがあるか否かを判定する。ポイント位置にアクティブなノート図形Cがないと判定された場合には(ステップS51のNO)、当該処理を終了する。前記アクティブなノート図形Cとは選択されているグループタブBの各グループにノート音響データが振り分けられているもので、例えば図7(B)に示すように明確に表示されているノート図形Cのことを言う。他方、選択されていないグループタブBの各グループにノート音響データが振り分けられているノート図形Cは例えば図7(B)に示すように薄く表示されており、そのような非アクティブなノート図形Cの表示位置をポイントしても何らの処理も行われない。   In step S51, it is determined whether or not there is an active note graphic C at the point position on the "acoustic data editing / playback screen" A. If it is determined that there is no active note graphic C at the point position (NO in step S51), the process is terminated. The active note graphic C is one in which note sound data is distributed to each group of the selected group tab B. For example, the note graphic C clearly displayed as shown in FIG. Say that. On the other hand, the note graphic C in which the note sound data is distributed to each group of the unselected group tab B is thinly displayed as shown in FIG. 7B, for example, and such inactive note graphic C is displayed. No processing is performed even if the display position is pointed to.

ポイント位置にアクティブなノート図形Cがあると判定された場合には(ステップS51のYES)、「音響データ編集/再生画面」A上のノート図形Cをユーザが操作することに応じてノート情報の編集(詳しくはカレント属性情報)を行うと共に、前記ユーザ操作に応じて「音響データ編集/再生画面」Aの表示を更新する(ステップS52)。また、この際には必要に応じてノート音響データ(編集データ)を生成する。   If it is determined that there is an active note graphic C at the point position (YES in step S51), the note information is changed in response to the user operating the note graphic C on the "acoustic data editing / playback screen" A. Editing (specifically, current attribute information) is performed, and the display of the “sound data editing / playback screen” A is updated in accordance with the user operation (step S52). At this time, note sound data (edit data) is generated as necessary.

ここで、上記ノート情報の編集操作の一例を以下に挙げる。図7に示した「音響データ編集/再生画面」A上において、例えばノート図形Cをドラッグしてその表示位置を横軸方向に移動させれば、操作量に応じただけタイムスタート開始時刻及びタイムエンド終了時刻を編集することができる。例えばノート図形Cをドラッグしてその表示位置を縦軸方向に移動させれば、基本周波数を編集することができる。当該操作中は、編集データ(又はオリジナルデータ)をループ再生しながら操作量に応じて簡易的に実時間ピッチシフト処理が施されることから、ユーザは楽音を実際に試聴しながら編集を行うことができる。そして、操作が終了した時点で、編集データ(又はオリジナルデータ)を高品質のノンリアルタイムピッチシフト処理することにより新たな編集データを生成して記憶する。   An example of the note information editing operation will be described below. On the “acoustic data editing / playback screen” A shown in FIG. 7, for example, if the notebook figure C is dragged and its display position is moved in the horizontal axis direction, the time start start time and time will be increased according to the operation amount. End end time can be edited. For example, if the note graphic C is dragged and its display position is moved in the vertical axis direction, the fundamental frequency can be edited. During the operation, the edit data (or original data) is loop-played and the real-time pitch shift process is simply performed according to the amount of operation, so the user can edit while actually listening to the musical sound. Can do. When the operation is completed, new editing data is generated and stored by subjecting the editing data (or original data) to high quality non-real time pitch shift processing.

例えばノート図形Cの表示幅を縦軸方向に広げれば、ベロシティ(つまり音量)を編集することができる。当該操作中においても、編集データ(又はオリジナルデータ)をループ再生しながら操作量に応じて再生音量が変更されることから、ユーザは楽音を実際に試聴しながら編集を行うことができる。そして、操作が終了した時点で、編集データ(又はオリジナルデータ)の音量レベルを変更することにより新たな編集データを生成して記憶する。例えばノート図形Cの表示幅を横軸方向に広げれば、タイムスタート開始時刻又はタイムエンド終了時刻のいずれかを独立に編集することができる。当該操作中は、編集データ(又はオリジナルデータ)をループ再生しながら操作量に応じて簡易的に実時間タイムストレッチ処理が施されることから、ユーザは楽音を実際に試聴しながら編集を行うことができる。そして、操作が終了した時点で、編集データ(又はオリジナルデータ)を高品質のタイムストレッチ処理することにより新たな編集データを生成して記憶する。   For example, if the display width of the note graphic C is increased in the vertical axis direction, the velocity (that is, the volume) can be edited. Even during the operation, the playback volume is changed in accordance with the operation amount while looping playback of the edit data (or original data), so that the user can edit while actually listening to the musical sound. When the operation is completed, new edit data is generated and stored by changing the volume level of the edit data (or original data). For example, if the display width of the notebook graphic C is expanded in the horizontal axis direction, either the time start start time or the time end end time can be edited independently. During the operation, the edit data (or original data) is loop-played and the real-time time stretch process is simply performed according to the amount of operation, so the user can edit while actually listening to the musical sound. Can do. When the operation is completed, new edit data is generated and stored by subjecting the edit data (or original data) to high-quality time stretch processing.

なお、ここでは図示していないが、サブメニューを表示させて上記以外の例えばフォルマント変更やEQ処理などを行って、ノート情報の編集や編集データの生成(又は編集)を行うことができるようになっていてよい。   Although not shown here, it is possible to edit the note information and generate (or edit) the note information by displaying a submenu and performing other than the above, such as formant change and EQ processing. It may be.

次に、「再生処理」(図6のステップS34)について図10及び図11を用いて説明する。図10は、「再生処理」の一実施例を示すフローチャートである。図11は、再生処理時における信号処理手順を説明するためのブロック図である。   Next, the “reproduction process” (step S34 in FIG. 6) will be described with reference to FIGS. FIG. 10 is a flowchart illustrating an example of “reproduction processing”. FIG. 11 is a block diagram for explaining a signal processing procedure during the reproduction process.

ステップS61は、初期設定を行う。初期設定としては、再生位置のリセットやタイマ設定などがある。ステップS62は、選択されているグループタブBが「ALL」タブか否かを判定する。選択されているグループタブBが「ALL」タブであると判定した場合には(ステップS62のYES)、元の音響データを再生する(ステップS63)。ステップS64は、オリジナル属性情報とカレント属性情報の内容が同一でないノート情報(つまりは編集されているノート情報)について、再生位置がオリジナル属性情報のタイムスタート開始時刻に合致するノート音響データ(オリジナルデータ)の再生を開始する(ステップS64)。このときの再生は逆位相で元の音響データに加えられることによって、元の音響データ内における該当部分のオリジナル成分を打ち消す。   Step S61 performs initial setting. Initial settings include a playback position reset and a timer setting. A step S62 decides whether or not the selected group tab B is an “ALL” tab. When it is determined that the selected group tab B is the “ALL” tab (YES in step S62), the original sound data is reproduced (step S63). In step S64, for note information whose original attribute information and current attribute information are not identical (that is, edited note information), note sound data (original data) whose playback position matches the time start start time of the original attribute information. ) Is started (step S64). The reproduction at this time is added to the original sound data in reverse phase, thereby canceling out the original component of the corresponding part in the original sound data.

ステップS65は、オリジナル属性情報とカレント属性情報の内容が同一でないノート情報について、再生位置がオリジナル属性情報のタイムエンド終了時刻に合致するノート音響データ(オリジナルデータ)の再生を終了する。ステップS66は、オリジナル属性情報とカレント属性情報の内容が同一でないノート情報について、再生位置がカレント属性情報のタイムスタート開始時刻に合致するノート音響データ(編集データ)の再生を開始する。ステップS67は、オリジナル属性情報とカレント属性情報の内容が同一でないノート情報について、再生位置がカレント属性情報のタイムエンド終了時刻に合致するノート音響データ(編集データ)の再生を終了する。   In step S65, for the note information in which the contents of the original attribute information and the current attribute information are not the same, the reproduction of the note sound data (original data) whose reproduction position matches the time end end time of the original attribute information is terminated. In step S66, for note information whose contents of the original attribute information and the current attribute information are not the same, playback of the note sound data (edit data) whose playback position matches the time start start time of the current attribute information is started. In step S67, for the note information whose original attribute information and current attribute information are not identical, the reproduction of the note sound data (edit data) whose reproduction position matches the time end end time of the current attribute information is terminated.

図11(A)は、「ALL」タブが選択されているときにおける再生時の信号処理手順(上記ステップS63〜S67)を示す。ただし、ここでは理解しやすくするために、ノート音響データ2(ノート2)は編集されておらず対応するノート情報のオリジナル属性情報とカレント属性情報の内容が同じであるとする一方、ノート音響データ1(ノート1)とノート音響データN(ノートN)は編集されており対応するノート情報のオリジナル属性情報とカレント属性情報の内容が異なるものとする。   FIG. 11A shows a signal processing procedure during reproduction when the “ALL” tab is selected (steps S63 to S67 above). However, for the sake of easy understanding, note sound data 2 (note 2) is not edited and the original attribute information of the corresponding note information is the same as the current attribute information, while note sound data It is assumed that 1 (note 1) and note sound data N (note N) have been edited and the contents of the original attribute information and the current attribute information of the corresponding note information are different.

元の音響データは、元の音響データ読み出し部Mによって記憶装置8から読み出されて再生される。各ノート音響データは、複数が必要に応じて並列的に動作しうるノート音響データ単位の再生処理部N1〜NNによって記憶装置8から読み出されて再生される。ただし、ノート2のようなノート情報のオリジナル属性情報とカレント属性情報の内容が同じであるものについては、ノート音響データ単位の再生処理部N1〜NNによるオリジナルデータの再生を行わない。なぜなら、編集がなされていないノート音響データ(オリジナルデータ)の成分は元の音響データに含まれていることから、元の音響データを再生するだけで十分に再現できるからである。   The original acoustic data is read from the storage device 8 by the original acoustic data reading unit M and reproduced. Each piece of note sound data is read from the storage device 8 and reproduced by the reproduction processing units N1 to NN in units of note sound data that can be operated in parallel when necessary. However, the original data of the note information such as Note 2 and the content of the current attribute information are not reproduced by the reproduction processing units N1 to NN in units of note sound data. This is because the component of the note sound data (original data) that has not been edited is included in the original sound data and can be sufficiently reproduced simply by reproducing the original sound data.

他方、ノート1やノートNのようなノート情報のオリジナル属性情報とカレント属性情報の内容が異なるものについては、ノート音響データ単位の再生処理部N1〜NNによる再生を行う。当然にオリジナル属性情報とカレント属性情報の内容が異なるノート情報についても、対応するノート音響データの成分が元の音響データに含まれている。しかし、編集後のノート音響データ(編集データ)を反映させる必要がある。そこで、前記再生した元の音響データの出力に対してオリジナルデータ読み出し部Oにより再生されたオリジナルデータの出力を加算部K1により逆相で重ねあわせることで、元の音響データに含まれる該当成分を打ち消しておき、その後前記該当成分打消し後の元の音響データの出力に対して編集データ読み出し処理部Hにより再生された編集データの出力を加算部K2により正相で重ね合わせることによって、データ編集された楽器音を含む全ての楽器音からなる楽音を出力するようにしている。   On the other hand, when the original attribute information of the note information such as note 1 or note N and the content of the current attribute information are different, reproduction is performed by the reproduction processing units N1 to NN in units of note acoustic data. Of course, for note information whose contents of the original attribute information and the current attribute information are different, the corresponding note sound data components are included in the original sound data. However, it is necessary to reflect the edited note sound data (edit data). Therefore, by superimposing the output of the original data reproduced by the original data reading unit O on the output of the reproduced original audio data in the reverse phase by the adding unit K1, the corresponding component included in the original acoustic data is obtained. Data editing is performed by superimposing the output of the edited data reproduced by the edited data reading processing unit H on the output of the original acoustic data after canceling the corresponding component, and then superimposing the output in the normal phase by the adding unit K2. The musical sound which consists of all the instrument sounds including the made instrument sound is output.

なお、ノート情報のオリジナル属性情報とカレント属性情報の内容が異なるものであっても、編集データが加工されない場合があることは上述した通りである。そうした場合には、編集データ読み出し処理部Hにおいてもオリジナルデータ読み出し処理部Oと同様にオリジナルデータを再生し、該再生されたオリジナルデータの出力を前記該当成分打消し後の元の音響データの出力に対して加算部K2により正相で重ね合わせるようにすればよい(要は打ち消した成分を元に戻す)。   As described above, even if the contents of the original attribute information and the current attribute information of the note information are different, the edited data may not be processed. In such a case, the edited data read processing unit H also reproduces the original data in the same way as the original data read processing unit O, and outputs the reproduced original data after the corresponding component cancellation. May be superimposed in the positive phase by the adder K2 (in short, the canceled component is restored).

図10の説明に戻って、選択されたグループタブが「ALL」タブでないと判定した場合には(ステップS62のNO)、元の音響データを再生しない(ステップS68)。ステップS69は、再生位置がカレント属性情報のタイムスタート開始時刻に合致するノート音響データ(編集データ)の再生を開始する。ステップS70は、再生位置がカレント属性情報のタイムエンド終了時刻に合致するノート音響データ(編集データ)の再生を終了する。   Returning to the description of FIG. 10, when it is determined that the selected group tab is not the “ALL” tab (NO in step S62), the original acoustic data is not reproduced (step S68). In step S69, the reproduction of the note sound data (edit data) whose reproduction position matches the time start start time of the current attribute information is started. In step S70, the reproduction of the note sound data (edit data) whose reproduction position matches the time end end time of the current attribute information is terminated.

図11(B)は、「ALL」タブ以外の特定のグループタブが選択されているときにおける再生時の信号処理手順(上記ステップS68及びS69)を示す。ただし、ここでは理解しやすくするために、タブ選択されている(アクティブな)グループにノート1とノート2とが含まれ、タブ選択されていない(非アクティブな)グループにノートNが含まれているものとする。   FIG. 11B shows a signal processing procedure during reproduction when a specific group tab other than the “ALL” tab is selected (steps S68 and S69 above). However, for ease of understanding, note 1 and note 2 are included in the tab-selected (active) group, and note N is included in the non-tab-selected (inactive) group. It shall be.

特定のグループタブが選択されている場合には、元の音響データ読み出し部Mによる元の音響データの再生が行われない。その場合、ノート1とノート2のようなアクティブなグループに含まれる各ノートのみについて、編集データ読み出し処理部Hによって再生された編集データの出力が加算部K2により加算される。他方、ノートNのような非アクティブなグループに含まれる各ノートについては、編集データ読み出し処理部Hによって再生された編集データの出力が加算部K2により加算されない。なお、各ノート1〜Nがアクティブなグループに含まれるか含まれないかに関わらず、オリジナルデータ読み出し処理部Hによって再生されるオリジナルデータの出力は加算部K1においても加算部K2においても加算されることがない。   When a specific group tab is selected, the original acoustic data reading unit M does not reproduce the original acoustic data. In that case, the output of the edit data reproduced by the edit data read processing unit H is added by the adding unit K2 only for each note included in the active group such as the note 1 and the note 2. On the other hand, for each note included in an inactive group such as note N, the output of the edited data reproduced by the edited data read processing unit H is not added by the adding unit K2. Regardless of whether each of the notes 1 to N is included in the active group, the output of the original data reproduced by the original data read processing unit H is added in both the adding unit K1 and the adding unit K2. There is nothing.

図10の説明に戻って、ステップS71は、タイマ制御に応じて再生位置を更新する。ステップS72は、前記更新された再生位置に応じて「音響データ編集/再生画面」Aの表示を更新する。この表示の更新は、再生進行にあわせた再生位置指示図形Dの位置更新だけでなくノート図形Cの更新などを含む。ステップS73は、全てのノート音響データを処理したか否かあるいは再生終了操作がされたか否かを判定する。全てのノート音響データを処理していないあるいは再生終了操作がされていないと判定した場合には(ステップS73のNO)、上記ステップS62の処理に戻って上記各処理を繰り返し実行する。全てのノート音響データを処理したあるいは再生終了操作がされたと判定した場合には(ステップS73のYES)、当該処理を終了する。   Returning to the description of FIG. 10, in step S71, the reproduction position is updated in accordance with the timer control. A step S72 updates the display of the “acoustic data editing / playback screen” A according to the updated playback position. This updating of the display includes not only updating the position of the reproduction position instruction graphic D in accordance with the progress of reproduction but also updating the note graphic C. A step S73 decides whether or not all the note sound data has been processed or whether or not a reproduction end operation has been performed. When it is determined that all the note sound data has not been processed or the reproduction end operation has not been performed (NO in step S73), the process returns to the process of step S62 and the above processes are repeated. If it is determined that all the note sound data has been processed or a reproduction end operation has been performed (YES in step S73), the process ends.

以上のように、本発明に係る楽音編集装置では、ユーザが個々の音色別かつノート単位の波形からなる多数のノート音響データを、画面上に表示されたノート図形を選択操作することにより複数の音色グループのいずれかに振り分けることができる。また、その際には、ノート図形の選択に応じて対応付けられているノート音響データのみが単独で再生されることから、個々の音色のみからなる楽音をユーザが実際に試聴して自身でその音色を確認しながら振り分けを行うことができる。そして、そうした振り分け後においては、1乃至複数の音色グループそれぞれに振り分けられたノート音響データに対応付けられたノート図形のみを前記画面上に分別表示させておき、前記画面上に表示されたそれぞれのノート図形に対するユーザ操作に応じて該当するノート音響データ並びに前記ノート特定情報及び再生情報の編集を行うことで、同じ音色グループに属する特定のノート音響データのみを抽出して編集できるようにしている。このようにして、ユーザ自身が異なる音色別かつノート単位に分離された個々のノート音響データを音色(グループ)毎に振り分けることができ、また各音色(グループ)に振り分けられたノート音響データのみを選択的に再生しながら編集することができるようにしたことから、ノート音響データ単位に元の音響データの編集を行うことが容易にできるようになる。   As described above, in the musical sound editing apparatus according to the present invention, a user selects a plurality of note sound data composed of waveforms for each tone color and for each note by selecting a note graphic displayed on the screen. Can be assigned to one of the tone groups. Also, at that time, only the note sound data associated with the selection of the note graphic is reproduced alone, so that the user actually listens to the musical tone consisting only of the individual timbres, and the Sorting can be performed while checking the tone. After such distribution, only the note graphics associated with the note sound data distributed to each of the one or more timbre groups are displayed separately on the screen, and each of the display on the screen is displayed. By editing the corresponding note sound data and the note specifying information and the reproduction information in response to a user operation on the note graphic, only specific note sound data belonging to the same tone group can be extracted and edited. In this way, the user can distribute the individual note sound data separated for each tone color and in units of notes for each tone color (group), and only the note sound data distributed to each tone color (group). Since editing can be performed while selectively reproducing, the original sound data can be easily edited in units of note sound data.

以上、図面に基づいて実施形態の一例を説明したが、本発明はこれに限定されるものではなく、様々な実施形態が可能であることは言うまでもない。例えば、上述した実施例においては、生成したノート音響データを「音響データ編集/再生画面」に表示してこれをユーザが適宜に分類するようにしたがこれに限らず、例えば特許文献1に記載の技術により前もって自動的にある程度大雑把に楽器音毎の振り分けを行っておき、その後さらにユーザ操作に応じて分類するようにしてもよい。このようにするには、上述した図3に示す「メイン処理」においてステップS2とステップS3との間に、前記自動的な振り分け処理を実行させるようにするとよい。また、その際には自動的な振り分け処理の実行に応じて振り分けされた各楽器音(グループ)に対応するグループ情報が自動的に生成され、該生成されたグループ情報に基づき「音響データ編集/再生画面」のグループタブの表示や各グループに属するノート音響データに対応するノート図形の表示等が行われることは言うまでもない。   As mentioned above, although an example of embodiment was demonstrated based on drawing, this invention is not limited to this, It cannot be overemphasized that various embodiment is possible. For example, in the above-described embodiment, the generated note sound data is displayed on the “acoustic data editing / playback screen” and the user appropriately classifies it. According to this technique, it is possible to automatically sort each instrument sound roughly roughly in advance, and then further classify according to the user operation. In order to do this, the automatic distribution process may be executed between step S2 and step S3 in the “main process” shown in FIG. At that time, group information corresponding to each instrument sound (group) distributed according to the automatic distribution process is automatically generated, and “acoustic data editing / recording” is performed based on the generated group information. Needless to say, display of the group tab of the “playback screen”, display of the note graphic corresponding to the note sound data belonging to each group, and the like are performed.

1…CPU、2…ROM、3…RAM、4…設定操作子、5…表示器、6…デジタル信号処理回路(DSP)、6A…入力信号インタフェース、6B…出力信号インタフェース、7…サウンドシステム、8…記憶装置、9…通信インタフェース、1D…データ及びアドレスバス、A…音響データ編集/再生画面、B…グループタブ、C…ノート図形、D…再生位置指示図形、H…編集データ読み出し処理部、M…元の音響データ読み出し処理部、N1〜NN…ノート音響データ単位の再生処理部、O…オリジナルデータ読み出し処理部、K1(K2)…加算部 DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... ROM, 3 ... RAM, 4 ... Setting operation element, 5 ... Display, 6 ... Digital signal processing circuit (DSP), 6A ... Input signal interface, 6B ... Output signal interface, 7 ... Sound system, DESCRIPTION OF SYMBOLS 8 ... Memory | storage device, 9 ... Communication interface, 1D ... Data and address bus, A ... Sound data edit / playback screen, B ... Group tab, C ... Notebook figure, D ... Play position indication figure, H ... Edit data read-out processing part , M ... original sound data read processing unit, N1 to NN ... note sound data unit reproduction processing unit, O ... original data read processing unit, K1 (K2) ... addition unit

Claims (3)

別々に発せられた複数の異なる音色の楽音が混在した1つの連続波形からなる元の音響データの分析に伴って分離される、個々の音色別かつノート単位の波形からなる多数のノート音響データの各々を、少なくともノート特定情報及び再生情報と関連付けて記憶する記憶手段と、
前記多数のノート音響データそれぞれに対応付けられた複数のノート図形を、前記関連付けられたノート特定情報及び再生情報に基づく音程毎かつ再生順に配置した画面を表示する表示手段と、
前記画面上に表示されたいずれかのノート図形の選択に応じて該選択されたノート図形に対応付けられているノート音響データのみを単独で再生することで、個々の音色のみからなる楽音をノート単位に独立的に発生する単音再生手段と、
前記選択されたノート図形に対応付けられているノート音響データを、複数の音色グループのいずれかに振り分ける振り分け手段と、
前記複数の音色グループを1つ以上選択するグループ選択手段と、
前記選択された1乃至複数の音色グループそれぞれに振り分けられたノート音響データのみを前記再生情報に基づく再生順に再生することで、前記選択された音色グループに属する音色のみが混在する楽音を発生する再生手段と
を備えた音楽編集装置。
A large number of note sound data consisting of waveforms for each tone and for each note, which are separated in accordance with the analysis of the original sound data consisting of one continuous waveform in which a plurality of different tone sounds are mixed. Storage means for storing each in association with at least note identification information and reproduction information;
A display means for displaying a screen in which a plurality of note graphics associated with each of the plurality of note sound data are arranged for each pitch and in reproduction order based on the associated note specifying information and reproduction information;
By playing back only the note sound data associated with the selected note graphic in response to the selection of any note graphic displayed on the screen, a musical tone consisting only of individual tones is recorded. A single sound reproduction means that is generated independently for each unit;
Distribution means for distributing the note sound data associated with the selected note graphic to any one of a plurality of timbre groups;
Group selection means for selecting one or more of the plurality of tone groups;
Reproduction that generates a musical tone in which only the timbres belonging to the selected timbre group are mixed by reproducing only the note sound data distributed to each of the selected timbre groups in the reproduction order based on the reproduction information. And a music editing apparatus.
前記画面上に表示されたそれぞれのノート図形に対するユーザ操作に応じて該当するノート音響データ並びに前記ノート特定情報及び再生情報の編集を行う編集手段をさらに備えてなり、
前記選択された1乃至複数の音色グループそれぞれに振り分けられたノート音響データに対応付けられたノート図形のみを前記画面上に分別表示させておき、同じ音色グループに属する特定のノート音響データのみを抽出して編集できるようにしたことを特徴とする請求項1に記載の楽音編集装置。
Further comprising editing means for editing corresponding note sound data and the note specifying information and reproduction information in accordance with a user operation for each note graphic displayed on the screen,
Only note graphics associated with the note sound data allocated to each of the selected one or more timbre groups are displayed separately on the screen, and only specific note sound data belonging to the same timbre group is extracted. The musical sound editing apparatus according to claim 1, wherein the musical sound editing apparatus is configured to be edited.
コンピュータに、
別々に発せられた複数の異なる音色の楽音が混在した1つの連続波形からなる元の音響データの分析に伴って分離される、個々の音色別かつノート単位の波形からなる多数のノート音響データの各々を、少なくともノート特定情報及び再生情報と関連付けて所定の記憶手段に記憶する手順と、
前記多数のノート音響データそれぞれに対応付けられた複数のノート図形を、前記関連付けられたノート特定情報及び再生情報に基づく音程毎かつ再生順に配置した画面を所定の表示手段に表示する手順と、
前記画面上に表示されたいずれかのノート図形の選択に応じて該選択されたノート図形に対応付けられているノート音響データのみを単独で再生することで、個々の音色のみからなる楽音をノート単位に独立的に発生する手順と、
前記選択されたノート図形に対応付けられているノート音響データを、複数の音色グループのいずれかに振り分ける手順と、
前記複数の音色グループを1つ以上選択する手順と、
前記選択された1乃至複数の音色グループそれぞれに振り分けられたノート音響データのみを前記再生情報に基づく再生順に再生することで、前記選択された音色グループに属する音色のみが混在する楽音を発生する手順と
を実行させるプログラム。
On the computer,
A large number of note sound data consisting of waveforms for each tone and for each note, which are separated in accordance with the analysis of the original sound data consisting of one continuous waveform in which a plurality of different tone sounds are mixed. A procedure for storing each in a predetermined storage means in association with at least note specifying information and reproduction information;
A procedure for displaying on a predetermined display means a screen in which a plurality of note graphics associated with each of the plurality of note sound data is arranged for each pitch and in reproduction order based on the associated note specifying information and reproduction information;
By playing back only the note sound data associated with the selected note graphic in response to the selection of any note graphic displayed on the screen, a musical tone consisting only of individual tones is recorded. Procedures that occur independently in units,
A procedure for assigning the note sound data associated with the selected note graphic to one of a plurality of tone groups;
Selecting one or more of the plurality of tone groups;
A procedure for generating a musical tone in which only the timbres belonging to the selected timbre group are mixed by reproducing only the note sound data distributed to each of the selected timbre groups in the order of reproduction based on the reproduction information. A program that executes
JP2010197715A 2010-09-03 2010-09-03 Music editing apparatus and program Expired - Fee Related JP5510207B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010197715A JP5510207B2 (en) 2010-09-03 2010-09-03 Music editing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010197715A JP5510207B2 (en) 2010-09-03 2010-09-03 Music editing apparatus and program

Publications (2)

Publication Number Publication Date
JP2012053392A true JP2012053392A (en) 2012-03-15
JP5510207B2 JP5510207B2 (en) 2014-06-04

Family

ID=45906735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010197715A Expired - Fee Related JP5510207B2 (en) 2010-09-03 2010-09-03 Music editing apparatus and program

Country Status (1)

Country Link
JP (1) JP5510207B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060582A (en) * 2013-09-20 2015-03-30 株式会社デンソーウェーブ Creation method of information code, information code, information code reading device, and information code utilization system
JP2015152680A (en) * 2014-02-12 2015-08-24 ヤマハ株式会社 Music information processing device, program, and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216147A (en) * 2002-01-17 2003-07-30 Dainippon Printing Co Ltd Encoding method of acoustic signal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216147A (en) * 2002-01-17 2003-07-30 Dainippon Printing Co Ltd Encoding method of acoustic signal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060582A (en) * 2013-09-20 2015-03-30 株式会社デンソーウェーブ Creation method of information code, information code, information code reading device, and information code utilization system
JP2015152680A (en) * 2014-02-12 2015-08-24 ヤマハ株式会社 Music information processing device, program, and method

Also Published As

Publication number Publication date
JP5510207B2 (en) 2014-06-04

Similar Documents

Publication Publication Date Title
US6140565A (en) Method of visualizing music system by combination of scenery picture and player icons
US7563975B2 (en) Music production system
CN108140402B (en) Method for dynamically modifying audio content theme
JP6201460B2 (en) Mixing management device
JP5724231B2 (en) Electronic music apparatus and program
JP2019066648A (en) Method for assisting in editing singing voice and device for assisting in editing singing voice
JP2017049349A (en) Musical sound signal generation device
JP5510207B2 (en) Music editing apparatus and program
JP6102076B2 (en) Evaluation device
JP4483304B2 (en) Music score display program and music score display device
JP2017027070A (en) Evaluation device and program
JP5969421B2 (en) Musical instrument sound output device and musical instrument sound output program
JP2012242431A (en) Operation display terminal
JP5577629B2 (en) Electronic music equipment
JP6020134B2 (en) Performance data set editing program and apparatus
JP6657866B2 (en) Sound effect imparting device and sound effect imparting program
JP2015225302A (en) Karaoke device
WO2024066790A1 (en) Audio processing method and apparatus, and electronic device
JP5742472B2 (en) Data retrieval apparatus and program
JP7425558B2 (en) Code detection device and code detection program
WO2023062865A1 (en) Information processing apparatus, method, and program
JP2001013964A (en) Playing device and recording medium therefor
KR20130125333A (en) Terminal device and controlling method thereof
JP4000986B2 (en) Display control apparatus and program
JP4665664B2 (en) Sequence data generation apparatus and sequence data generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140310

R150 Certificate of patent or registration of utility model

Ref document number: 5510207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees