JP6519316B2 - Sound material processing apparatus and sound material processing program - Google Patents

Sound material processing apparatus and sound material processing program Download PDF

Info

Publication number
JP6519316B2
JP6519316B2 JP2015105440A JP2015105440A JP6519316B2 JP 6519316 B2 JP6519316 B2 JP 6519316B2 JP 2015105440 A JP2015105440 A JP 2015105440A JP 2015105440 A JP2015105440 A JP 2015105440A JP 6519316 B2 JP6519316 B2 JP 6519316B2
Authority
JP
Japan
Prior art keywords
processing
sound
sound material
delay amount
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015105440A
Other languages
Japanese (ja)
Other versions
JP2016218347A (en
Inventor
藤島 琢哉
琢哉 藤島
教裕 植村
教裕 植村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2015105440A priority Critical patent/JP6519316B2/en
Publication of JP2016218347A publication Critical patent/JP2016218347A/en
Application granted granted Critical
Publication of JP6519316B2 publication Critical patent/JP6519316B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、複数の音素材を処理する音素材処理装置および音素材処理プログラムに関する。   The present invention relates to a sound material processing apparatus and a sound material processing program for processing a plurality of sound materials.

音響データ(オーディオデータ)のピッチを変更せずにテンポを変更するためにタイムストレッチが行われる。タイムストレッチの方式として種々の方式が提案されている。タイムストレッチの方式により処理に要する時間が異なる。そのため、複数の音素材にそれぞれ異なる方式でタイムストレッチが行われると、方式の切り替え時に無音状態が発生しまたは同じ音が二度再生されるという音ずれが生じる。   Time stretching is performed to change the tempo without changing the pitch of the audio data (audio data). Various methods have been proposed as a method of time stretch. The time required for processing varies depending on the time stretch method. Therefore, when time stretching is performed on a plurality of sound materials by different methods, a silent state occurs when switching the method, or a sound deviation occurs in which the same sound is reproduced twice.

特許文献1に記載された楽曲処理装置およびプログラムでは、高速かつ低音質の処理方式である第1の時間軸圧伸処理と低速かつ高音質の処理方式である第2の時間軸圧伸処理とが用いられる。再生指示に応じて、第1の時間軸圧伸処理の結果得られる楽音データが出力され、第2の時間軸圧伸処理の結果得られた楽音データが充分な数に達したことを契機として、第1の時間軸圧伸処理の代わりに、第2の時間軸圧伸処理の結果得られた楽音データが出力される。   In the music processing apparatus and program described in Patent Document 1, a first time axis companding process which is a high speed and low sound quality processing system and a second time axis companding process which is a low speed and high sound quality processing system Is used. In response to a reproduction instruction, musical tone data obtained as a result of the first time axis decompression process is output, and triggered by the number of musical tone data obtained as a result of the second time axis decompression process reaching a sufficient number. The tone data obtained as a result of the second time axis decompression process is output instead of the first time axis decompression process.

特許5359203号公報Patent 5359203 gazette

特許文献1に記載された方法によれば、第1の時間軸圧伸処理から第2の時間軸圧伸処理への切り替え時に音ずれが生じない。しかしながら、上記の方法では、高音質の処理結果が得られる処理方式に併せて低音質の処理結果が得られる処理方式を用いる必要がある。そのため、複数の音素材の各々を所望の処理方式で処理することはできない。ユーザが音のずれを生じることなく所望の処理方式でそれぞれ処理された複数の音素材を再生するためには、各処理方式および楽音の信号処理についての知識および経験が必要となる。   According to the method described in Patent Document 1, no sound displacement occurs when switching from the first time axis stretching process to the second time axis stretching process. However, in the above method, it is necessary to use a processing method that can obtain low-quality processing results as well as a processing method that can obtain high-quality processing results. Therefore, it is not possible to process each of a plurality of sound materials by a desired processing method. In order to reproduce a plurality of sound materials respectively processed by a desired processing method without causing the user to shift the sound, knowledge and experience about each processing method and signal processing of musical tones are required.

本発明の目的は、複数の音素材の各々を任意の処理方式で処理するとともに処理後の複数の音素材の連続性を容易に確保することが可能な音素材処理装置および音素材処理プログラムを提供することである。   An object of the present invention is a sound material processing apparatus and a sound material processing program capable of processing each of a plurality of sound materials by an arbitrary processing method and easily securing the continuity of the plurality of sound materials after processing. It is to provide.

(1)本発明に係る音素材処理装置は、音素材をそれぞれ異なる処理方式で処理する複数の処理モジュールと、複数の音素材の各々について処理方式を決定する決定手段と、複数の音素材の各々を決定された処理方式に対応する処理モジュールに入力する入力手段と、決定された処理方式に対応する処理モジュールにより処理された音素材を出力する出力手段と、複数の処理モジュールの各々について音素材の処理に要する時間を処理遅延量として取得する取得手段と、複数の処理モジュールについて取得された処理遅延量のうち最大の処理遅延量以上である基準遅延量を設定する第1の設定手段と、入力手段による決定された処理モジュールへの音素材の入力から出力手段による音素材の出力までの時間が基準遅延量と等しくなるように入力手段による音素材の入力から出力手段による音素材の出力までの過程において音素材に遅延を与える遅延付与手段とを備える。   (1) The sound material processing apparatus according to the present invention comprises a plurality of processing modules for processing sound materials in different processing methods, a determination means for determining the processing method for each of the plurality of sound materials, and a plurality of sound materials. Input means for inputting each processing module corresponding to the determined processing method, output means for outputting a sound material processed by the processing module corresponding to the determined processing method, and sound for each of the plurality of processing modules Acquisition means for acquiring the time required for processing the material as a processing delay amount, and first setting means for setting a reference delay amount that is equal to or greater than the maximum processing delay amount among the processing delay amounts acquired for the plurality of processing modules And the time from the input of the sound material to the processing module determined by the input means to the output of the sound material by the output means is equal to the reference delay amount. And a delay imparting section for delaying a sound material in the process from the input of the sound material by means to the output of the sound material by the output means.

その音素材処理装置においては、複数の音素材の各々について処理方式が決定される。また、各処理モジュールについての処理遅延量が取得され、最大の処理遅延量以上である基準遅延量が設定される。複数の音素材の再生時には、各音素材が決定された処理方式に対応する処理モジュールに入力され、その処理モジュールにより処理された後、処理された音素材が出力される。この場合、処理モジュールへの音素材の入力から音素材の出力までの時間が基準遅延量と等しくなるように音素材に遅延が与えられる。それにより、複数の音素材の各々を任意の処理方式で処理するとともに処理後の複数の音素材の連続性を容易に確保することが可能となる。その結果、音のずれが生じず聴感上自然な再生を行うことができる。また、各処理方式についての知識をユーザが特に必要とせずかつ処理方式毎の遅延量の設定等の作業を行わずに好適な処理結果を得ることができる。さらに、音素材に適した処理方式を任意に選択することができる。   In the sound material processing apparatus, the processing method is determined for each of the plurality of sound materials. Also, the processing delay amount for each processing module is acquired, and the reference delay amount that is equal to or greater than the maximum processing delay amount is set. When reproducing a plurality of sound materials, each sound material is input to a processing module corresponding to the determined processing method, processed by the processing module, and then the processed sound material is output. In this case, a delay is given to the sound material such that the time from the input of the sound material to the processing module to the output of the sound material becomes equal to the reference delay amount. Thereby, it becomes possible to process each of the plurality of sound materials by an arbitrary processing method and easily ensure the continuity of the plurality of sound materials after the processing. As a result, it is possible to perform natural reproduction on hearing without any deviation of sound. In addition, it is possible to obtain a suitable processing result without requiring the user to have particular knowledge about each processing method and performing work such as setting of the delay amount for each processing method. Furthermore, the processing method suitable for the sound material can be arbitrarily selected.

(2)遅延付与手段は、決定された処理モジュールについての処理遅延量と基準遅延量との差分を算出し、入力手段による音素材の入力時または出力手段による音素材の出力時において差分に相当する遅延を音素材に与えてもよい。この場合、簡単な構成で処理後の複数の音素材の連続性を容易に確保することが可能となる。   (2) The delay giving means calculates the difference between the processing delay amount and the reference delay amount for the determined processing module, and corresponds to the difference when the sound material is input by the input device or when the sound material is output by the output device Delay may be given to the sound material. In this case, it is possible to easily ensure the continuity of a plurality of processed sound materials with a simple configuration.

(3)音素材処理装置は、複数の処理モジュールの処理に関するパラメータの値を設定する第2の設定手段をさらに備え、複数の処理モジュールの各々は、設定されたパラメータの値に応じた処理遅延量を有し、取得手段は、複数の処理モジュールについて設定されたパラメータの値に応じた処理遅延量を取得してもよい。この場合、パラメータの値により各処理モジュールの処理遅延量が異なる場合でも、処理後の複数の音素材の連続性を容易に確保することが可能となる。   (3) The sound material processing apparatus further includes second setting means for setting parameter values related to processing of the plurality of processing modules, and each of the plurality of processing modules has a processing delay according to the value of the set parameter It may have an amount, and the acquisition means may acquire the processing delay amount according to the value of the parameter set for a plurality of processing modules. In this case, even when the processing delay amount of each processing module differs depending on the value of the parameter, it is possible to easily ensure the continuity of the plurality of sound materials after processing.

(4)決定手段は、各音素材の特徴に基づいて処理方式を決定してもよい。この場合、各音素材の特徴に応じた処理方式で複数の音素材を適切に処理することが可能となり、かつ処理後の複数の音素材の連続性を容易に確保することが可能となる。   (4) The determination means may determine the processing method based on the characteristics of each sound material. In this case, it becomes possible to appropriately process a plurality of sound materials by the processing method according to the characteristics of each sound material, and it is possible to easily ensure the continuity of the plurality of sound materials after processing.

(5)本発明に係る音素材処理プログラムは、複数の音素材の各々について処理方式を決定するステップと、複数の音素材の各々を複数の処理モジュールのうち決定された処理方式に対応する処理モジュールに入力するステップと、決定された処理方式に対応する処理モジュールにより処理された音素材を出力するステップと、複数の処理モジュールの各々について音素材の処理に要する時間を処理遅延量として取得するステップと、複数の処理モジュールについて取得された処理遅延量のうち最大の処理遅延量以上である基準遅延量を設定するステップと、決定された処理モジュールへの音素材の入力から音素材の出力までの時間が基準遅延量と等しくなるように音素材の入力から音素材の出力までの過程において音素材に遅延を与えるステップとを、コンピュータに実行させる。   (5) The sound material processing program according to the present invention comprises the steps of determining the processing method for each of the plurality of sound materials, and processing corresponding to the processing method determined among the plurality of processing modules for each of the plurality of sound materials. The step of inputting to the module, the step of outputting the sound material processed by the processing module corresponding to the determined processing method, and the time required to process the sound material for each of the plurality of processing modules is acquired as the processing delay amount Step, setting a reference delay amount equal to or greater than the maximum processing delay amount among processing delay amounts acquired for a plurality of processing modules, and from input of a sound material to the determined processing module to output of a sound material Delay the sound material in the process from the input of the sound material to the output of the sound material so that the time of And-up, to be executed by a computer.

その音素材処理プログラムによれば、複数の音素材の各々を任意の処理方式で処理するとともに処理後の複数の音素材の連続性を容易に確保することが可能となる。   According to the sound material processing program, it becomes possible to process each of the plurality of sound materials by an arbitrary processing method and easily ensure the continuity of the plurality of sound materials after the processing.

本発明によれば、複数の音素材の各々を任意の処理方式で処理するとともに処理後の複数の音素材の連続性を容易に確保することが可能となる。   According to the present invention, it is possible to process each of the plurality of sound materials by an arbitrary processing method and easily ensure the continuity of the plurality of sound materials after the processing.

本発明の実施の形態に係る音素材処理装置を含む電子音楽装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an electronic music apparatus including a sound material processing apparatus according to an embodiment of the present invention. 本発明の実施の形態に係る音素材処理装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the sound material processing apparatus which concerns on embodiment of this invention. 図1および図2の音素材処理装置により行われる複数の音素材の処理を示すフローチャートである。FIG. 5 is a flow chart showing processing of a plurality of sound materials performed by the sound material processing device of FIGS. 1 and 2; FIG. 図1および図2の音素材処理装置により行われる複数の音素材の処理を示すフローチャートである。FIG. 5 is a flow chart showing processing of a plurality of sound materials performed by the sound material processing device of FIGS. 1 and 2; FIG. 音素材処理装置による複数の音素材の処理の一例を示すタイミング図である。It is a timing diagram which shows an example of processing of a plurality of sound materials by the sound material processing apparatus. 音素材処理装置の他の機能的な構成を示すブロック図である。It is a block diagram which shows the other functional structure of a sound material processing apparatus.

以下、本発明の実施の形態に係る音素材処理装置および音素材処理プログラムについて図面を用いて詳細に説明する。   Hereinafter, a sound material processing apparatus and a sound material processing program according to an embodiment of the present invention will be described in detail with reference to the drawings.

(1)電子音楽装置の構成
図1は本発明の実施の形態に係る音素材処理装置を含む電子音楽装置の構成を示すブロック図である。図1の電子音楽装置1によれば、ユーザは演奏および楽曲の制作等を行うことができる。また、ユーザは、電子音楽装置1により各種音素材の処理を行い、処理された音素材を再生することができる。
(1) Configuration of Electronic Music Device FIG. 1 is a block diagram showing the configuration of an electronic music device including a sound material processing device according to an embodiment of the present invention. According to the electronic music apparatus 1 of FIG. 1, the user can perform performance, produce music, and the like. Further, the user can process various sound materials by the electronic music apparatus 1 and reproduce the processed sound materials.

電子音楽装置1は、演奏データ入力部2、入力I/F(インタフェース)3、設定操作子4、検出回路5、タッチパネルディスプレイ6、検出回路7および表示回路8を備える。演奏データ入力部2は、鍵盤等の音高指定操作子またはマイク等を含み、入力I/F3を介してバス19に接続される。ユーザの演奏操作に基づく演奏データが演奏データ入力部2により入力される。設定操作子4は、オンオフ操作されるスイッチ、回転操作されるロータリエンコーダ、またはスライド操作されるリニアエンコーダ等を含み、検出回路5を介してバス19に接続される。この設定操作子4は、音量の調整、電源のオンオフおよび各種設定を行うために用いられる。   The electronic music apparatus 1 includes a performance data input unit 2, an input I / F (interface) 3, a setting operator 4, a detection circuit 5, a touch panel display 6, a detection circuit 7 and a display circuit 8. The performance data input unit 2 includes a pitch designation operation element such as a keyboard or a microphone, and is connected to the bus 19 via the input I / F 3. Performance data based on a user's performance operation is input by the performance data input unit 2. The setting operator 4 includes a switch that is turned on and off, a rotary encoder that is rotated, a linear encoder that is slid, and the like, and is connected to the bus 19 via the detection circuit 5. The setting control 4 is used to adjust the volume, to turn on / off the power, and to make various settings.

タッチパネルディスプレイ6は、検出回路7および表示回路8を介してバス19に接続される。タッチパネルディスプレイ6には、各種情報が表示される。ユーザは、タッチパネルディスプレイ6を操作することにより各種操作を指示することができる。   The touch panel display 6 is connected to the bus 19 via the detection circuit 7 and the display circuit 8. Various information is displayed on the touch panel display 6. The user can instruct various operations by operating the touch panel display 6.

電子音楽装置1は、RAM(ランダムアクセスメモリ)9、ROM(リードオンリメモリ)10、CPU(中央演算処理装置)11、タイマ12および記憶装置13をさらに備える。RAM9、ROM10、CPU11および記憶装置13はバス19に接続され、タイマ12はCPU11に接続される。外部記憶装置15等の外部機器が通信I/F(インタフェース)14を介してバス19に接続されてもよい。RAM9、ROM10、CPU11およびタイマ12がコンピュータを構成する。   The electronic music apparatus 1 further includes a RAM (random access memory) 9, a ROM (read only memory) 10, a CPU (central processing unit) 11, a timer 12, and a storage device 13. The RAM 9, the ROM 10, the CPU 11 and the storage device 13 are connected to the bus 19, and the timer 12 is connected to the CPU 11. An external device such as the external storage device 15 may be connected to the bus 19 via the communication I / F (interface) 14. The RAM 9, the ROM 10, the CPU 11, and the timer 12 constitute a computer.

RAM9は、例えば揮発性メモリからなり、CPU11の作業領域として用いられるとともに、各種データを一時的に記憶する。ROM10は、例えば不揮発性メモリからなり、システムプログラムおよび音素材処理プログラム等のコンピュータプログラムを記憶する。CPU11は、ROM10に記憶された音素材処理プログラムをRAM9上で実行することにより後述する音素材の処理を行う。タイマ12は、現在時刻等の時間情報をCPU11に与える。   The RAM 9 is, for example, a volatile memory, is used as a work area of the CPU 11, and temporarily stores various data. The ROM 10 is, for example, a non-volatile memory, and stores a computer program such as a system program and a sound material processing program. The CPU 11 executes a sound material processing program stored in the ROM 10 on the RAM 9 to process sound materials described later. The timer 12 provides time information such as the current time to the CPU 11.

記憶装置13は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含む。この記憶装置13には、複数の音素材が記憶される。ユーザにより楽曲を構成する一連の音素材が選択される。各音素材は、音の波形を示すサンプリングデータ列からなる音響データ(オーディオデータ)である。音とは、音楽的な音に限るものではなく、音声またはその他の任意の音を含む。音素材は、任意の長さを有し、1拍もしくは複数拍に相当する長さまたは1拍に満たない1発音分の長さを有してもよく、楽曲の1小節または複数小節に相当する長さを有してもよい。また、記憶装置13には、自動演奏データおよび自動伴奏データが記憶される。上記の音素材処理プログラムが記憶装置13に記憶されてもよい。   The storage device 13 includes a storage medium such as a hard disk, an optical disk, a magnetic disk, or a memory card. The storage device 13 stores a plurality of sound materials. The user selects a series of sound materials that constitute the music. Each sound material is sound data (audio data) composed of a sampling data string indicating a sound waveform. Sounds are not limited to musical sounds, but include voices or any other sounds. The sound material has an arbitrary length, and may have a length corresponding to one beat or a plurality of beats or a length of one pronunciation less than one beat, and corresponds to one bar or a plurality of bars of music. It may have a length that Further, the storage device 13 stores automatic performance data and automatic accompaniment data. The sound material processing program described above may be stored in the storage device 13.

外部記憶装置15は、記憶装置13と同様に、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含み、楽曲データ等の各種データまたは音素材処理プログラムを記憶してもよい。   Similar to the storage device 13, the external storage device 15 may include a storage medium such as a hard disk, an optical disk, a magnetic disk, or a memory card, and may store various data such as music data or a sound material processing program.

なお、本実施の形態における音素材処理プログラムは、コンピュータが読み取り可能な記録媒体に格納された形態で提供され、ROM10または記憶装置13にインストールされてもよい。また、通信I/F14が通信網に接続されている場合、通信網に接続されたサーバから配信された音素材処理プログラムがROM10または記憶装置13にインストールされてもよい。   The sound material processing program according to the present embodiment may be provided in the form of being stored in a computer readable recording medium, and may be installed in the ROM 10 or the storage device 13. Further, when the communication I / F 14 is connected to the communication network, a sound material processing program distributed from a server connected to the communication network may be installed in the ROM 10 or the storage device 13.

電子音楽装置1は、音源16、効果回路17およびサウンドシステム18をさらに備える。音源16および効果回路17はバス19に接続され、サウンドシステム18は効果回路17に接続される。音源16は、演奏データ入力部2から入力される演奏データまたは記憶装置13から与えられる自動演奏データまたは自動伴奏データに基づいて楽音信号を生成する。効果回路17は、音源16により生成される楽音信号またはCPU11から与えられる音素材に音響効果を付与する。   The electronic music apparatus 1 further comprises a sound source 16, an effect circuit 17 and a sound system 18. The sound source 16 and the effect circuit 17 are connected to the bus 19, and the sound system 18 is connected to the effect circuit 17. The sound source 16 generates a tone signal based on the performance data input from the performance data input unit 2 or the automatic performance data or the automatic accompaniment data supplied from the storage device 13. The effect circuit 17 applies an acoustic effect to a tone signal generated by the sound source 16 or a sound material given from the CPU 11.

サウンドシステム18は、デジタルアナログ(D/A)変換回路、増幅器およびスピーカを含む。このサウンドシステム18は、音源16から効果回路17を通して与えられる楽音信号またはCPU11から効果回路17を通して与えられる音素材をアナログ音信号に変換し、アナログ音信号に基づく音を発生する。それにより、楽音信号または音素材が再生される。電子音楽装置1において、主としてタッチパネルディスプレイ6、RAM9、ROM10、CPU11、タイマ12および記憶装置13が音素材処理装置100を構成する。   Sound system 18 includes digital to analog (D / A) conversion circuitry, amplifiers and speakers. The sound system 18 converts a tone signal given from the sound source 16 through the effect circuit 17 or a sound material given from the CPU 11 through the effect circuit 17 into an analog sound signal to generate a sound based on the analog sound signal. Thereby, the tone signal or the sound material is reproduced. In the electronic music apparatus 1, the touch panel display 6, the RAM 9, the ROM 10, the CPU 11, the timer 12 and the storage device 13 mainly constitute the sound material processing apparatus 100.

(2)音素材処理装置100の機能的な構成
図2は本発明の実施の形態に係る音素材処理装置100の機能的な構成を示すブロック図である。図2に示すように、音素材処理装置100は、再生指示部110、音素材入力部120、複数の遅延部130、複数の処理モジュール140および音素材出力部150を含む。また、音素材処理装置100は、処理方式決定部160、特徴情報取得部161、好適性情報取得部162、処理モジュール選択部170、差分遅延量算出部180、処理遅延量取得部190、パラメータ値設定部200および処理モジュール登録部210を含む。図2の音素材処理装置100の各ブロックの機能は、CPU11がROM10または記憶装置13に記憶された音素材処理プログラムを実行することにより実現される。
(2) Functional Configuration of Sound Material Processing Apparatus 100 FIG. 2 is a block diagram showing a functional configuration of the sound material processing apparatus 100 according to the embodiment of the present invention. As shown in FIG. 2, the sound material processing apparatus 100 includes a reproduction instruction unit 110, a sound material input unit 120, a plurality of delay units 130, a plurality of processing modules 140, and a sound material output unit 150. Further, the sound material processing apparatus 100 includes a processing method determination unit 160, a feature information acquisition unit 161, a suitability information acquisition unit 162, a processing module selection unit 170, a differential delay amount calculation unit 180, a processing delay amount acquisition unit 190, and a parameter value. A setting unit 200 and a processing module registration unit 210 are included. The function of each block of the sound material processing apparatus 100 of FIG. 2 is realized by the CPU 11 executing a sound material processing program stored in the ROM 10 or the storage device 13.

以下、複数の遅延部130の各々を区別する場合には、複数の遅延部130をそれぞれ遅延部130a〜130dと呼ぶ。また、複数の処理モジュール140の各々を区別する場合には、複数の処理モジュール140をそれぞれ処理モジュール140a〜140dと呼ぶ。   Hereinafter, in order to distinguish each of the plurality of delay units 130, the plurality of delay units 130 will be referred to as delay units 130a to 130d, respectively. Further, in the case of distinguishing each of the plurality of processing modules 140, the plurality of processing modules 140 will be referred to as processing modules 140a to 140d, respectively.

複数の処理モジュール140a〜140dは、それぞれ異なる処理方式A〜Dで音素材に処理を行う。ここで、異なる処理方式は、同じ目的の処理を行うための方式である。なお、異なる処理方式が厳密に同じ目的の処理を行うための方式でなく、類似の目的の処理を行うための方式であってもよい。   The plurality of processing modules 140a to 140d process the sound material by different processing methods A to D, respectively. Here, different processing methods are methods for performing processing for the same purpose. Note that different processing methods may be methods for performing processing for similar purposes, instead of methods for performing processing for exactly the same purpose.

本実施の形態では、処理はタイムストレッチである。タイムストレッチとは、音響データを時間軸上で圧縮または伸張することを意味する。本実施の形態では、処理方式A〜Dは、それぞれ異なるタイムストレッチ方式である。複数の処理モジュール140a〜140dは、それぞれ処理方式A〜Dの音特徴好適性情報PRa〜PRdを保有する。音特徴好適性情報PRa〜PRdについては後述する。各処理方式による音素材の処理に要する時間を処理遅延量と呼ぶ。処理遅延量は、音素材が各処理モジュール140に入力されてから出力されるまでの時間である。処理モジュール140a〜140dは、処理遅延量DLa〜DLdを保有する。本実施の形態では、処理モジュール140a〜140dを構成するプログラム中に音特徴好適性情報PRa〜PRdおよび処理遅延量DLa〜DLdが記述されている。   In the present embodiment, the process is time stretch. Time-stretching means compressing or expanding acoustic data on a time axis. In the present embodiment, the processing methods A to D are different time stretch methods. The plurality of processing modules 140a to 140d respectively hold sound feature suitability information PRa to PRd of the processing methods A to D. The sound feature suitability information PRa to PRd will be described later. The time required for processing the sound material according to each processing method is called processing delay amount. The processing delay amount is the time from when the sound material is input to each processing module 140 until it is output. The processing modules 140a to 140d hold processing delay amounts DLa to DLd. In the present embodiment, the sound feature suitability information PRa to PRd and the processing delay amounts DLa to DLd are described in the program constituting the processing modules 140a to 140d.

処理遅延量取得部190は、複数の処理モジュール140a〜140dからそれぞれ処理遅延量DLa〜DLdを取得する。差分遅延量算出部180は、処理遅延量DLa〜DLdの最大値以上の値を基準遅延量として算出し、処理遅延量DLa〜DLdと基準遅延量との差分を差分遅延量ΔDa〜ΔDdとして算出する。また、差分遅延量算出部180は、算出した差分遅延量ΔDa〜ΔDdをそれぞれ処理モジュール140a〜140dに対応する遅延部130a〜130dに設定する。   The processing delay amount acquisition unit 190 acquires the processing delay amounts DLa to DLd from the plurality of processing modules 140a to 140d. Difference delay amount calculation unit 180 calculates a value equal to or greater than the maximum value of processing delay amounts DLa to DLd as a reference delay amount, and calculates the difference between processing delay amounts DLa to DLd and the reference delay amount as difference delay amounts ΔDa to ΔDd. Do. Further, the differential delay amount calculation unit 180 sets the calculated differential delay amounts ΔDa to ΔDd in the delay units 130a to 130d corresponding to the processing modules 140a to 140d, respectively.

パラメータ値設定部200は、ユーザによる図1のタッチパネルディスプレイ6の操作に基づいて処理モジュール140a〜140dの処理に関する可変のパラメータPAの値を設定する。本実施の形態では、パラメータはストレッチ比である。ストレッチ比は、タイムストレッチ前の音素材の再生時間に対するタイムストレッチ後の音素材の再生時間の比である。パラメータPAの値に依存して処理モジュール140a〜140dの処理遅延量DLa〜DLdが変化する。   The parameter value setting unit 200 sets values of variable parameters PA related to the processing of the processing modules 140a to 140d based on the operation of the touch panel display 6 of FIG. 1 by the user. In the present embodiment, the parameter is a stretch ratio. The stretch ratio is the ratio of the reproduction time of the sound material after time stretch to the reproduction time of the sound material before time stretch. The processing delay amounts DLa to DLd of the processing modules 140a to 140d change depending on the value of the parameter PA.

処理モジュール登録部210は、ユーザによる図1のタッチパネルディスプレイ6の操作に基づいて複数の処理モジュール140a〜140dのうち複数の音素材の処理に用いる処理モジュール140を登録する。全ての処理モジュール140が登録された場合には全ての処理モジュール140を、一部の処理モジュール140が登録された場合には登録された処理モジュール140のみを各音素材の処理に用いることが可能となる。   The processing module registration unit 210 registers the processing module 140 used for processing a plurality of sound materials among the plurality of processing modules 140a to 140d based on the operation of the touch panel display 6 of FIG. 1 by the user. When all the processing modules 140 are registered, all the processing modules 140 can be used. When only some of the processing modules 140 are registered, only the registered processing modules 140 can be used to process each sound material. It becomes.

音素材入力部120は、ユーザによるタッチパネルディスプレイ6の操作に基づいて図1の記憶装置13に記憶される複数の音素材を入力する。複数の音素材は、一の楽曲データから連続的または不連続に選択された複数の音素材、または複数の楽曲データから不連続に選択された複数の音素材であってもよい。音素材入力部120への複数の音素材の入力順序は予め定められている。本実施の形態では、N個の音素材SI〜SIが入力される。Nは2以上の自然数である。 The sound material input unit 120 inputs a plurality of sound materials stored in the storage device 13 of FIG. 1 based on an operation of the touch panel display 6 by the user. The plurality of sound materials may be a plurality of sound materials continuously or discontinuously selected from one music data, or a plurality of sound materials discontinuously selected from a plurality of music data. The input order of the plurality of sound materials to the sound material input unit 120 is predetermined. In this embodiment, N pieces of sound material SI 1 ~SI N is input. N is a natural number of 2 or more.

特徴情報取得部161は、音素材入力部120により入力された複数の音素材SI〜SIから特徴を表す特徴情報SM〜SMをそれぞれ取得する。好適性情報取得部162は、複数の処理モジュール140a〜140dから音特徴好適性情報PRa〜PRdを取得する。処理方式決定部160は、特徴情報取得部161により取得された特徴情報および好適性情報取得部162により取得された音特徴好適性情報PRa〜PRdに基づいて各音素材の処理に用いる処理方式を決定する。本実施の形態では、N個の音素材SI〜SIの各々の処理に用いる処理方式が音素材の再生前に予め決定される。 Feature information obtaining unit 161, respectively acquires feature information SM 1 to SM N representing a feature from a plurality of sound materials SI 1 ~SI N input by sound material input unit 120. The suitability information acquisition unit 162 acquires sound feature suitability information PRa to PRd from the plurality of processing modules 140a to 140d. The processing method determination unit 160 uses the processing method used to process each sound material based on the feature information acquired by the characteristic information acquisition unit 161 and the sound feature suitability information PRa to PRd acquired by the suitability information acquisition unit 162. decide. In the present embodiment, the processing method used for processing each of the N sound materials SI 1 to SIN is determined in advance before reproduction of the sound materials.

音素材の再生時には、再生指示部110は、ユーザによる図1のタッチパネルディスプレイ6の操作に基づいて複数の音素材の再生を指示する。それにより、音素材入力部120は、複数の音素材SI〜SIを順に入力する。この場合、入力する音素材の間に休符区間が入ってもよい。また、各音素材が再生開始予定時刻付きでまたは再生開始予定時刻が算出されて入力されてもよい。処理モジュール選択部170は、音素材の入力ごとに処理方式決定部160により決定された処理方式に対応する処理モジュール140を選択し、選択した処理モジュール140への音素材の入力を音素材入力部120に指示し、かつ選択した処理モジュール140により処理された音素材の出力を音素材出力部150に指示する。 At the time of reproduction of the sound material, the reproduction instruction unit 110 instructs reproduction of a plurality of sound materials based on the operation of the touch panel display 6 of FIG. 1 by the user. Thereby, sound material input unit 120 inputs a plurality of sound materials SI 1 ~SI N sequentially. In this case, a rest section may be inserted between the sound material to be input. In addition, each sound material may be input with the scheduled playback start time or the scheduled playback start time may be calculated. The processing module selection unit 170 selects the processing module 140 corresponding to the processing method determined by the processing method determination unit 160 for each input of the sound material, and inputs the sound material to the selected processing module 140 as the sound material input unit It instructs the sound material output unit 150 to output the sound material processed by the processing module 140 by instructing the processing module 140.

音素材入力部120は、処理モジュール選択部170により指示された処理モジュール140に遅延部130を通して各音素材を入力する。このとき、遅延部130は、予め設定された差分遅延量の遅延を音素材に与える。選択された処理モジュール140は、入力された音素材を処理する。音素材出力部150は、処理モジュール選択部170により指示された処理モジュール140により処理された音素材を出力する。本実施の形態では、音素材出力部150は、音素材SI〜SIにタイムストレッチを行うことにより得られた音素材SO〜SOを順に出力する。 The sound material input unit 120 inputs each sound material to the processing module 140 instructed by the processing module selection unit 170 through the delay unit 130. At this time, the delay unit 130 applies a delay of a preset difference delay amount to the sound material. The selected processing module 140 processes the input sound material. The sound material output unit 150 outputs the sound material processed by the processing module 140 instructed by the processing module selection unit 170. In this embodiment, sound material output section 150 outputs the sound material SI 1 ~SI N sound material SO 1 obtained by performing time-stretching to SO N sequentially.

(3)処理方式の決定方法
音素材の特徴は、例えば、音素材がピッチ音であるか無ピッチ音であるか、音素材がピッチ音である場合に単一音であるか混合音であるか、または音素材に無音区間が存在するか否かである。
(3) Determination method of processing method The characteristic of the sound material is, for example, whether the sound material is pitch sound or non-pitch sound, or single sound or mixed sound when the sound material is pitch sound Or whether there is a silent section in the sound material.

ピッチ音は、人が音高を明確に知覚可能な音である。ピッチ音の波形は、周期性を有する。ピッチ音は、人の声または管弦楽器および鍵盤楽器から発せられる持続音または減衰音等を含む。また、打楽器のうち、マリンバ、鉄琴、タムおよびティンパニ等の音もピッチ音に含まれる。無ピッチ音は、人が音高を明確に知覚することができない音である。無ピッチ音の波形は、周期性を有さない。無ピッチ音は、滝または雨の音、ならびにスネアドラムおよびマラカス等の打楽器の音を含む。   A pitch sound is a sound that can be clearly perceived by people. The waveform of the pitch sound has periodicity. The pitch sound includes, for example, a sustained sound or a decaying sound emitted from human voice or a stringed instrument and a keyboard instrument. Further, among the percussion instruments, sounds such as marimba, iron chopsticks, toms and timpani are also included in the pitch sound. The non-pitched sound is a sound that a person can not clearly perceive the pitch. The non-pitched sound waveform has no periodicity. Pitchless sounds include the sounds of waterfalls or rain, and the sounds of percussion instruments such as snare drums and maracas.

ピッチ音は、単一音および混合音を含む。単一音は、人が1つの音として知覚する音である。単一音の波形は、単一の周期を有する。混合音は、複数の単一音が混合された音である。ギターまたはピアノ等は単独で混合音を発することができる。また、複数の楽器が同時に発した複数の単一音の組み合わせも混合音に相当する。   Pitch sounds include single tones and mixed tones. A single sound is a sound that a person perceives as one sound. A single tone waveform has a single period. A mixed sound is a sound in which a plurality of single sounds are mixed. A guitar or a piano can emit mixed sound alone. In addition, a combination of a plurality of single tones emitted simultaneously by a plurality of instruments also corresponds to a mixed tone.

複数の処理方式としては、例えば、スライス方式、PSOLA(ピッチ同期重畳加算)方式、フェーズボコーダ方式、および波形クロスフェード方式がある。   As the plurality of processing methods, for example, there are a slice method, a PSOLA (pitch synchronous superposition addition) method, a phase vocoder method, and a waveform cross fading method.

スライス方式は、時間軸上で複数の音の間に無音区間が存在する音素材(例えば、パーカッション演奏等)に好適である。一方、時間軸上で連続する複数の音が互いにオーバーラップして無音区間が存在しない音素材、または無音区間が少ない音素材には、スライス方式は適さない。PSOLA方式は、単一音に好適であり、無ピッチ音に関しても一定の音質が得られる。一方、PSOLA方式は、混合音に適さない。フェーズボコーダ方式は、音高が明確なピッチ音(単一音および混合音の両方)に好適であり、音高が明確でない無ピッチ音に適さない。波形クロスフェード方式は、無ピッチ音、単一音および混合音を含む各種の音素材に関して一定の音質が得られるが、単一音に関してはPSOLA方式よりも音質的に劣り、混合音に関してはフェーズボコーダ方式よりも音質的に劣る。   The slicing method is suitable for a sound material (for example, percussion performance) in which a silent section exists between a plurality of sounds on a time axis. On the other hand, the slice method is not suitable for a sound material in which a plurality of consecutive sounds on the time axis overlap each other and there is no silent section, or a sound material with few silent sections. The PSOLA method is suitable for a single sound, and a constant sound quality can be obtained even for non-pitched sound. On the other hand, PSOLA method is not suitable for mixed sound. The phase vocoder system is suitable for pitch tones (both single tones and mixed tones) whose pitch is clear, and not suitable for non-pitch sound where the pitch is not clear. The waveform cross fade method can obtain constant sound quality for various sound materials including no pitch sound, single sound and mixed sound, but the single sound is inferior to the PSOLA sound in sound quality and the mixed sound is in phase Sound quality is inferior to vocoder system.

音特徴好適性情報PRa〜PRdは、複数の特徴に対する処理方式A〜Dの好適性の程度を示す。例えば、処理方式Aについては、特徴aを有する音素材を処理した場合に最も高い音質が得られ、特徴bを有する音素材を処理した場合に最も低い音質が得られ、特徴cを有する音素材を処理した場合に中間の音質が得られる。この場合、音特徴好適性情報PRaは、特徴aに対して最も高い好適性を有し、特徴bに対して最も低い好適性を有し、特徴cに対して中間の好適性を有する。処理方式決定部160は、各音素材についての特徴情報および音特徴好適性情報PRa〜PRdに基づいて、複数の処理方式A〜Dから各音素材の特徴に対して最も高い好適性を有する処理方式を決定する。   The sound feature suitability information PRa to PRd indicates the degree of suitability of the processing methods A to D for a plurality of features. For example, in the processing method A, the highest sound quality is obtained when the sound material having the feature a is processed, and the lowest sound quality is obtained when the sound material having the feature b is processed, and the sound material having the feature c Intermediate tone quality is obtained when processing In this case, the sound feature preference information PRa has the highest preference for feature a, the lowest preference for feature b, and the middle preference for feature c. The processing method determination unit 160 performs processing having the highest suitability for the features of each sound material from the plurality of processing methods A to D based on the feature information and the sound feature suitability information PRa to PRd for each sound material. Determine the method.

(4)音素材処理装置100の動作
図3および図4は図1および図2の音素材処理装置100により行われる複数の音素材の処理を示すフローチャートである。また、図5は音素材処理装置100による複数の音素材の処理の一例を示すタイミング図である。図3および図4の複数の音素材の処理は、図1のCPU11がROM10または記憶装置13に記憶された音素材処理プログラムを実行することに行われる。以下、図2の音素材処理装置100の各部の動作と関連付けて複数の音素材の処理を説明する。
(4) Operation of Sound Material Processing Apparatus 100 FIGS. 3 and 4 are flowcharts showing processing of a plurality of sound materials performed by the sound material processing apparatus 100 of FIGS. 1 and 2. FIG. 5 is a timing chart showing an example of processing of a plurality of sound materials by the sound material processing apparatus 100. The processing of the plurality of sound materials of FIGS. 3 and 4 is performed by the CPU 11 of FIG. 1 executing the sound material processing program stored in the ROM 10 or the storage device 13. Hereinafter, processing of a plurality of sound materials will be described in association with the operation of each unit of the sound material processing apparatus 100 of FIG.

本例では、図2の処理モジュール登録部210により複数の音素材の処理に使用可能な処理モジュール140として処理モジュール140a〜140dが登録されているものとする。複数の処理モジュール140a〜140dのパラメータPAの値がパラメータ値設定部200により設定される。   In this example, it is assumed that the processing modules 140a to 140d are registered as the processing modules 140 that can be used to process a plurality of sound materials by the processing module registration unit 210 in FIG. The parameter value setting unit 200 sets values of the parameters PA of the plurality of processing modules 140 a to 140 d.

まず、図2の音素材入力部120は、ユーザの操作に基づいて、図1の記憶装置13に記憶される複数の音素材から再生対象となるN個の音素材SI〜SIを取得する(ステップS1)。次に、処理方式決定部160は、音素材入力部120により取得されたN個の音素材SI〜SIの処理に用いる処理方式をそれぞれ決定する(ステップS2)。本例では、音素材SI〜SIの処理にそれぞれ処理方式A〜Dが用いられるものとする。 First, the sound material input unit 120 of FIG. 2 obtains N sound materials SI 1 to SIN to be reproduced from the plurality of sound materials stored in the storage device 13 of FIG. 1 based on the user's operation. To do (step S1). Next, the processing method determination unit 160 determines the processing method to be used for processing the N sound materials SI 1 to SIN acquired by the sound material input unit 120 (step S2). In this example, it is assumed that each processing method A~D is used to process the sound material SI 1 ~SI 4.

その後、処理遅延量取得部190は、決定された各処理方式に対応する処理モジュール140a〜140dから処理遅延量DLa〜DLdを取得する(ステップS3)。本例では、処理遅延量DLa〜DLdは、DLa<DLb<DLc<DLdの関係を有する。   Thereafter, the processing delay amount acquisition unit 190 acquires the processing delay amounts DLa to DLd from the processing modules 140a to 140d corresponding to the determined processing methods (step S3). In this example, the processing delay amounts DLa to DLd have a relationship of DLa <DLb <DLc <DLd.

差分遅延量算出部180は、処理遅延量取得部190により取得された処理遅延量DLa〜DLdに基づいて基準遅延量DRを決定する(ステップS4)。本例では、基準遅延量DRは処理遅延量DLa〜DLdのうち最大の処理遅延量DLdに決定される。また、差分遅延量算出部180は、基準遅延量DRと各処理モジュール140a〜140dの処理遅延量DLa〜DLdとの差を差分遅延量ΔDa〜ΔDdとして算出する(ステップS5)。さらに、差分遅延量算出部180は、各処理モジュール140a〜140dに対応する遅延部130a〜130dにそれぞれ差分遅延量ΔDa〜ΔDdを設定する(ステップS6)。   The differential delay amount calculating unit 180 determines the reference delay amount DR based on the processing delay amounts DLa to DLd acquired by the processing delay amount acquiring unit 190 (step S4). In the present example, the reference delay amount DR is determined to be the maximum processing delay amount DLd among the processing delay amounts DLa to DLd. Further, the differential delay amount calculation unit 180 calculates differences between the reference delay amount DR and the processing delay amounts DLa to DLd of the processing modules 140a to 140d as differential delay amounts ΔDa to ΔDd (step S5). Furthermore, the differential delay amount calculation unit 180 sets differential delay amounts ΔDa to ΔDd in the delay units 130a to 130d corresponding to the processing modules 140a to 140d (step S6).

次に、処理方式決定部160は、音素材入力部120による各音素材SO〜SOの出力開始時刻を決定する(ステップS7)。出力開始時刻は、各音素材の再生が開始される時刻に相当する。各音素材の出力開始時刻と次の音素材の出力開始時刻との間の時間差は、処理後の各音素材の再生時間により決定される。本例では、入力される音素材が休符区間を含まないが、入力される音素材が休符区間を含む場合には、再生時間に休符区間が加算される。図5には、処理後の音素材SO〜SOの出力開始時刻r1〜r5が示される。 Next, the processing method decision unit 160 determines the output start time of each sound material SO 1 to SO N by sound material input section 120 (step S7). The output start time corresponds to the time when reproduction of each sound material is started. The time difference between the output start time of each sound material and the output start time of the next sound material is determined by the reproduction time of each sound material after processing. In this example, when the input sound material does not include the rest section, but the input sound material includes the rest section, the rest section is added to the reproduction time. FIG. 5 shows the output start times r1 to r5 of the sound materials SO 1 to SO 5 after the processing.

また、処理方式決定部160は、音素材入力部120による各音素材SI〜SIの入力開始時刻を決定する(ステップS8)。この場合、各入力開始時刻は、対応する出力開始時刻よりも基準遅延量DRだけ前の時点に決定される。図5には、音素材SI〜SIの入力開始時刻t1〜t5が示される。 The processing method decision unit 160 determines the input start time of each sound material SI 1 ~SI N by sound material input section 120 (step S8). In this case, each input start time is determined to be a time point earlier than the corresponding output start time by the reference delay amount DR. 5 shows, the input start time t1~t5 of sound material SI 1 ~SI 5 is shown.

ユーザの操作に基づいて、再生指示部110が複数の音素材の再生の開始を指示する(ステップS9)。また、再生指示部110は図1のタイマ12を起動する(ステップS10)。処理モジュール選択部170は、変数iを1に設定する(ステップS11)。次に、処理モジュール選択部170は、i番目(1番目)の音素材の処理に用いる処理モジュール140を現在の処理モジュール140とする(ステップS12)。本例では、処理モジュール140aが現在の処理モジュール140となる。   Based on the user's operation, the reproduction instruction unit 110 instructs the start of reproduction of a plurality of sound materials (step S9). Also, the reproduction instruction unit 110 activates the timer 12 of FIG. 1 (step S10). The processing module selection unit 170 sets the variable i to 1 (step S11). Next, the processing module selection unit 170 sets the processing module 140 used for processing the i-th (first) sound material as the current processing module 140 (step S12). In the present example, the processing module 140 a is the current processing module 140.

その後、処理モジュール選択部170は、図1のタイマ12の出力に基づいて、i番目(1番目)の入力開始時刻t1が到来したか否かを判定する(ステップS13)。i番目(1番目)の入力開始時刻t1が到来した場合には、処理モジュール選択部170は、現在の処理モジュール140aへ遅延部130aを通してi番目(1番目)の音素材SIの入力を開始するように音素材入力部120を制御する(ステップS14)。この場合、図5に示すように、遅延部130aにより音素材SIに差分遅延量ΔDaが付与される。それにより、音素材SIは、入力開始時刻t1から差分遅延量ΔDaの経過後に処理モジュール140aに入力される。処理モジュール140aは、入力された音素材SIの処理を開始し、処理遅延量DLaの経過後に処理された音素材SOの出力が可能となる。 Thereafter, the processing module selection unit 170 determines whether the i-th (first) input start time t1 has arrived based on the output of the timer 12 of FIG. 1 (step S13). When the i-th (first) input start time t1 arrives, the processing module selection unit 170 starts the input of the i-th (first) sound material SI 1 through the delay unit 130 a to the current processing module 140 a. The sound material input unit 120 is controlled to do this (step S14). In this case, as shown in FIG. 5, the delay unit 130 a adds the difference delay amount ΔDa to the sound material SI 1 . Thereby, sound material SI 1 is input to the processing module 140a from the input start time t1 after the elapse of the differential delay amount? Da. Processing module 140a starts processing the sound is input material SI 1, the output of the sound material SO 1 that was processed after the processing delay amount DLa is possible.

その後、処理モジュール選択部170は、図1のタイマ12の出力に基づいて、i番目(1番目)の出力開始時刻r1が到来したか否かを判定する(ステップS15)。i番目(1番目)の出力開始時刻r1が到来した場合には、処理モジュール選択部170は、現在の処理モジュール140aにより処理された音素材SOを出力するように音素材出力部150を制御する(ステップS16)。図5の例では、音素材出力部150は、出力開始時刻r1において、処理モジュール140aにより処理された1番目の音素材SOをフェードインさせながら出力する。 Thereafter, the processing module selection unit 170 determines whether the i-th (first) output start time r1 has arrived based on the output of the timer 12 of FIG. 1 (step S15). When the i-th (first) output start time r1 arrives, the processing module selection unit 170 controls the sound material output unit 150 to output the sound material SO 1 processed by the current processing module 140a. (Step S16). In the example of FIG. 5, the sound material output section 150, the output start time r1, and outputs while the first sound material SO 1 that has been processed by the processing module 140a is faded in.

次に、処理モジュール選択部170は、ユーザの操作に基づいて、再生指示部110により再生の終了が指示されたか否かを判定する(ステップS17)。再生の終了が指示されていない場合、処理モジュール選択部170は、変数iに1を加算する(ステップS18)。次に、処理モジュール選択部170は、i番目(2番目)の音素材SIの処理に用いる処理モジュール140を次の処理モジュール140とする(ステップS19)。本例では、処理モジュール140bが次の処理モジュール140となる。 Next, based on the user's operation, the processing module selection unit 170 determines whether or not the reproduction instruction unit 110 instructs the end of reproduction (step S17). If the end of reproduction is not instructed, the processing module selection unit 170 adds 1 to the variable i (step S18). Next, the processing module selection unit 170 sets the processing module 140 used for processing the i-th (second) sound material SI 2 as the next processing module 140 (step S19). In this example, the processing module 140 b is the next processing module 140.

その後、処理モジュール選択部170は、図1のタイマ12の出力に基づいて、i番目(2番目)の入力開始時刻t2が到来したか否かを判定する(ステップS20)。i番目(2番目)の入力開始時刻t2が到来した場合には、処理モジュール選択部170は、次の処理モジュール140bへ遅延部130bを通してi番目(2番目)の音素材SIの入力を開始するように音素材入力部120を制御する(ステップS21)。この場合、図5に示すように、遅延部130bにより音素材SIに差分遅延量ΔDbが付与される。それにより、音素材SIは、入力開始時刻t2から差分遅延量ΔDbの経過後に処理モジュール140bに入力される。処理モジュール140bは、入力された音素材SIの処理を開始し、処理遅延量DLbの経過後に処理された音素材SOの出力が可能となる。 Thereafter, the processing module selection unit 170 determines whether the i-th (second) input start time t2 has arrived based on the output of the timer 12 of FIG. 1 (step S20). When the i-th (second) input start time t2 arrives, the processing module selection unit 170 starts the input of the i-th (second) sound material SI 2 through the delay unit 130 b to the next processing module 140 b. The sound material input unit 120 is controlled to do this (step S21). In this case, as shown in FIG. 5, the difference delay ΔDb the sound material SI 2 by the delay unit 130b is applied. Thereby, sound material SI 2 is input to the processing module 140b from the input start time t2 after the elapse of the differential delay Delta] Db. The processing module 140 b starts processing the input sound material SI 2 , and can output the processed sound material SO 2 after the processing delay amount DLb has elapsed.

その後、処理モジュール選択部170は、図1のタイマ12の出力に基づいて、i番目(2番目)の出力開始時刻r2が到来したか否かを判定する(ステップS22)。i番目(2番目)の出力開始時刻r2が到来した場合には、処理モジュール選択部170は、現在の処理モジュール140aにより処理された音素材SOの出力を停止するように音素材出力部150を制御する(ステップS23)。図5の例では、音素材出力部150は音素材SOをフェードアウトさせる。 Thereafter, the processing module selection unit 170 determines whether the i-th (second) output start time r2 has arrived based on the output of the timer 12 of FIG. 1 (step S22). When the i-th (second) output start time r2 arrives, the processing module selection unit 170 causes the sound material output unit 150 to stop the output of the sound material SO 1 processed by the current processing module 140a. Are controlled (step S23). In the example of FIG. 5, the sound material output unit 150 fades out the sound material SO 1 .

次に、処理モジュール選択部170は、次の処理モジュール140bを現在の処理モジュール140とする(ステップS24)。処理モジュール選択部170は、現在の処理モジュール140bにより処理された音素材SOを出力するように音素材出力部150を制御する(ステップS25)。図5の例では、出力開始時刻r2において、音素材出力部150が処理モジュール140bにより処理された音素材SOをフェードインさせる。 Next, the processing module selection unit 170 sets the next processing module 140b as the current processing module 140 (step S24). Processing module selection unit 170 controls the sound material output section 150 to output a sound material SO 2, which is processed by the current processing module 140b (step S25). In the example of FIG. 5, at the output start time r2, sound material output section 150 causes the fade in the sound material SO 2 that has been processed by the processing module 140b.

その後、処理モジュール選択部170は、ステップS17に戻り、ステップS17〜S25を繰り返す。これにより、図5の例では、入力開始時刻t3で3番目の音素材SIが遅延部130cを通して処理モジュール140cに入力され、差分遅延量ΔDcの経過後に音素材SIの処理が開始される。さらに、処理遅延量DLcの経過後の出力開始時刻r3で、2番目の音素材SOがフェードアウトされ、処理モジュール140cにより処理された3番目の音素材SOがフェードインされる。同様に、入力開始時刻t4で4番目の音素材SIが遅延部130dを通して処理モジュール140dに入力され、差分遅延量ΔDdの経過後に音素材SIの処理が開始される。さらに、処理遅延量DLdの経過後の出力開始時刻r4で、3番目の音素材SOがフェードアウトされ、処理モジュール140dにより処理された4番目の音素材SOがフェードインされる。 Thereafter, the processing module selection unit 170 returns to step S17 and repeats steps S17 to S25. Thus, in the example of FIG. 5, the input start time t3 is a third sound material SI 3 is input to the processing module 140c through the delay unit 130c, the processing of sound material SI 3 after a differential delay ΔDc is initiated . Furthermore, the output start time r3 after the lapse of the processing delay DLc, 2-th sound material SO 2 is faded out, the third sound material SO 3 that has been processed by the processing module 140c is faded in. Similarly, the input start time t4 4 th sound material SI 4 is input to a processing module 140d through the delay section 130d, processing sound material SI 4 after a differential delay ΔDd is initiated. Furthermore, the output start time r4 after the elapse of the processing delay DLd, 3-th sound material SO 3 is the fade-out, the processing module 4 th sound material SO 4 treated with 140d are faded in.

ステップS17で、再生の終了が指示された場合、処理モジュール選択部170はタイマ12を停止させる(ステップS26)、また、処理モジュール選択部170は、現在の処理モジュール140への音素材の入力を停止するように音素材入力部120を制御し(ステップS27)、現在の処理モジュール140により処理された音素材の出力を停止するように音素材出力部150を制御する(ステップS28)。   In step S17, when termination of reproduction is instructed, the processing module selection unit 170 stops the timer 12 (step S26), and the processing module selection unit 170 inputs the sound material to the current processing module 140. The sound material input unit 120 is controlled to stop (step S27), and the sound material output unit 150 is controlled to stop the output of the sound material processed by the current processing module 140 (step S28).

本例では、処理方式の切り替わり時に先行する音素材がフェードアウトしかつ後続する音素材がフェードインすることによりクロスフェードが行われるので、聴感上自然な再生音が得られる。   In this example, since the preceding sound material fades out and the subsequent sound material fades in at the time of switching of the processing method, cross-fading is performed, so that a natural reproduced sound can be obtained.

上記の複数の音素材の処理において、パラメータ値設定部200によりパラメータPAの値が変更された場合には、各処理方式の処理遅延量が変化する。そのため、各音素材の出力開始時刻および入力開始時刻も変更される必要がある。本実施の形態では、パラメータがストレッチ比であるため、ストレッチ比の値が変更されると、各処理モジュール140の処理遅延量および処理後の音素材の再生時間も変更される。この場合、ステップS3に戻り、処理遅延量取得部190により変更後のパラメータPAの値に応じた処理遅延量が取得され、ステップS4〜S8において各音素材の出力開始時刻および入力開始時刻が再度決定される。その後、ステップS9〜S28が実行される。   In the processing of the plurality of sound materials described above, when the parameter value setting unit 200 changes the value of the parameter PA, the processing delay amount of each processing method changes. Therefore, the output start time and the input start time of each sound material also need to be changed. In the present embodiment, since the parameter is a stretch ratio, when the value of the stretch ratio is changed, the processing delay amount of each processing module 140 and the reproduction time of the sound material after processing are also changed. In this case, the process returns to step S3, and the processing delay amount acquiring unit 190 acquires the processing delay amount according to the value of the parameter PA after the change, and the output start time and input start time of each sound material again in steps S4 to S8. It is determined. Thereafter, steps S9 to S28 are performed.

(5)実施の形態の効果
本実施の形態に係る音素材処理装置100によれば、各音素材を特徴に応じて適切な処理方式で処理することができる。また、処理モジュール140a〜140dへの音素材の入力から音素材の出力までの時間が基準遅延量DRと等しくなるように音素材に遅延が与えられる。それにより、処理方式A〜Dの切り替え時に音ずれが生じない。この場合、ユーザは、各処理方式の処理遅延量および楽音の信号処理を考慮する必要がない。その結果、各処理方式および楽音の信号処理についての知識および経験が乏しいユーザであっても、各音素材を適切な処理方式で処理するとともに処理後の複数の音素材の連続性を容易に確保することが可能となる。
(5) Effects of the Embodiment According to the sound material processing apparatus 100 according to the present embodiment, each sound material can be processed by an appropriate processing method according to the feature. Further, delay is given to the sound material so that the time from the input of the sound material to the processing modules 140a to 140d to the output of the sound material becomes equal to the reference delay amount DR. As a result, no sound shift occurs when the processing methods A to D are switched. In this case, the user does not have to consider the processing delay amount of each processing method and the signal processing of the musical tone. As a result, even if the user has little knowledge and experience with each processing method and musical tone signal processing, each sound material is processed by an appropriate processing method and the continuity of a plurality of processed sound materials is easily secured. It is possible to

(6)音素材処理装置100の他の機能的な構成
図6は音素材処理装置100の他の機能的な構成を示すブロック図である。図6の音素材処理装置100が図2の音素材処理装置100と異なるのは、図2の特徴情報取得部161および好適性情報取得部162の代わりに好適性情報取得部163が設けられる点である。
(6) Other Functional Configuration of Sound Material Processing Apparatus 100 FIG. 6 is a block diagram showing another functional configuration of the sound material processing apparatus 100. As shown in FIG. The sound material processing apparatus 100 of FIG. 6 is different from the sound material processing apparatus 100 of FIG. 2 in that a suitability information acquisition unit 163 is provided instead of the feature information acquisition unit 161 and the suitability information acquisition unit 162 of FIG. It is.

複数の処理モジュール140a〜140dは、それぞれ処理方式A〜Dのパラメータ値好適性情報PPa〜PPdを保有する。ここで、パラメータ値好適性情報PPa〜PPdは、パラメータPAの複数の値に対する処理方式A〜Dの好適性の程度を示す。本例においても、パラメータはストレッチ比である。処理モジュール140a〜140dを構成するプログラム中にパラメータ値好適性情報PPa〜PPdが記述されている。   The plurality of processing modules 140a to 140d respectively hold parameter value suitability information PPa to PPd of the processing methods A to D. Here, the parameter value suitability information PPa to PPd indicates the degree of suitability of the processing methods A to D with respect to a plurality of values of the parameter PA. Also in this example, the parameter is a stretch ratio. The parameter value suitability information PPa to PPd is described in the program constituting the processing modules 140a to 140d.

複数の処理方式A〜Dでは、パラメータPAの値に依存して音質が変化する。処理方式Aでは、例えば、ストレッチ比の値が100%であるときに最も高い音質が得られ、ストレッチ比の値が増加または減少するに従って音質が低下する。この場合、パラメータ値好適性情報PPaは、ストレッチ比の値が100%であるときに最も高い好適性を示し、ストレッチ比の値が増加または減少するに従って低下する好適性を示す。処理方式Bでは、例えば、ストレッチ比の値が100%を含む一定の範囲内にあるときに高い音質が得られるが、ストレッチ比の値が当該範囲外にあるときには音質が劣化する。この場合、パラメータ値好適性情報PPbは、ストレッチ比の値が100%を含む一定の範囲内にあるときに高い好適性を示し、ストレッチ比の値が当該範囲外にあるときに低い好適性を示す。   In the plurality of processing methods A to D, the sound quality changes depending on the value of the parameter PA. In the processing method A, for example, the highest sound quality is obtained when the value of the stretch ratio is 100%, and the sound quality is degraded as the value of the stretch ratio increases or decreases. In this case, the parameter value preference information PPa indicates the highest preference when the value of the stretch ratio is 100%, and indicates the preference that decreases as the value of the stretch ratio increases or decreases. In the processing method B, for example, high sound quality is obtained when the value of the stretch ratio is within a certain range including 100%, but the sound quality is degraded when the value of the stretch ratio is outside the range. In this case, the parameter value preference information PPb shows high suitability when the value of the stretch ratio is within a certain range including 100%, and low preference when the value of the stretch ratio is outside the range. Show.

処理方式Cでは、例えば、ストレッチ比の値が一定の値を超えると音質が上昇し、ストレッチ比の値が一定の値以下であるときには音質が劣化する。この場合、パラメータ値好適性情報PPcは、ストレッチ比の値が一定の値を超えると上昇する好適性を示し、ストレッチ比の値が一定の値以下であるときに低い好適性を示す。処理方式Dでは、例えば、ストレッチ比の比較的広い範囲の値で比較的良好な音質が得られる。この場合、パラメータ値好適性情報PPdは、ストレッチ比の比較的広い範囲の値で比較的高い好適性を示す。   In the processing method C, for example, the sound quality rises when the value of the stretch ratio exceeds a certain value, and the sound quality deteriorates when the value of the stretch ratio is less than a certain value. In this case, the parameter value preference information PPc indicates the preference to increase when the value of the stretch ratio exceeds a certain value, and indicates the low preference when the value of the stretch ratio is less than a certain value. In the processing method D, for example, relatively good sound quality can be obtained with a relatively wide range of values of the stretch ratio. In this case, the parameter value preference information PPd indicates relatively high preference at relatively wide range values of the stretch ratio.

好適性情報取得部163は、複数の処理モジュール140a〜140dからパラメータ値特徴好適性情報PPa〜PPdを取得する。処理方式決定部160は、パラメータ値設定部200により設定されたパラメータPAの値および好適性情報取得部163により取得されたパラメータ値好適性情報PPa〜PPdに基づいて各音素材の処理に用いる処理方式を決定する。   The suitability information acquisition unit 163 acquires parameter value feature suitability information PPa to PPd from the plurality of processing modules 140a to 140d. The processing method determination unit 160 uses the processing of each sound material based on the value of the parameter PA set by the parameter value setting unit 200 and the parameter value suitability information PPa to PPd acquired by the suitability information acquisition unit 163. Determine the method.

図6の音素材処理装置100の他の部分の構成および動作は、図2の音素材処理装置100の構成および図3〜図4の動作と同様である。本例の音素材処理装置100においては、各音素材をパラメータPAの値に応じて適切な処理方式で処理するとともに処理後の複数の音素材の連続性を容易に確保することが可能となる。   The configuration and operation of the other parts of the sound material processing apparatus 100 of FIG. 6 are the same as the configuration of the sound material processing apparatus 100 of FIG. 2 and the operations of FIGS. 3 to 4. In the sound material processing apparatus 100 according to the present embodiment, it is possible to process each sound material with an appropriate processing method according to the value of the parameter PA and easily ensure continuity of a plurality of sound materials after processing. .

(7)他の実施の形態
上記実施の形態では、複数の遅延部130が音素材入力部120と複数の処理モジュール140との間に設けられるが、複数の遅延部130が複数の処理モジュール140と音素材出力部150との間に設けられてもよい。
(7) Other Embodiments In the above embodiment, the plurality of delay units 130 are provided between the sound material input unit 120 and the plurality of processing modules 140, but the plurality of delay units 130 are provided in the plurality of processing modules 140. And the sound material output unit 150.

上記実施の形態では、図2の音素材処理装置100の各遅延部130により各音素材に差分遅延量の遅延が付与されるが、複数の遅延部130を設けることなく音素材入力部120が各処理モジュール140に音素材を入力する時点を調整することにより各音素材に差分遅延量の遅延が付与されてもよい。例えば、図5の出力開始時刻r1〜r5よりもそれぞれ処理遅延量DLa〜DLdに相当する時間前の時点で音素材入力部120が音素材を該当する処理モジュール140に入力してもよい。この場合、各入力開始時刻t1〜t4よりも差分遅延量ΔDa〜ΔDdに相当する時間遅延して音素材が該当する処理モジュール140に入力される。あるいは、音素材出力部150が各処理モジュール140により処理された音素材を出力する時点を調整することにより各音素材に差分遅延量の遅延が付与されてもよい。   In the above embodiment, each delay unit 130 of the sound material processing apparatus 100 of FIG. 2 adds a delay of the difference delay amount to each sound material, but without providing the plurality of delay units 130, the sound material input unit 120 A delay of the difference delay amount may be given to each sound material by adjusting the time when the sound material is input to each processing module 140. For example, the sound material input unit 120 may input a sound material to the processing module 140 corresponding to the processing delay amount DLa to DLd before the output start times r1 to r5 of FIG. 5 respectively. In this case, the sound material is input to the corresponding processing module 140 with a time delay corresponding to the difference delay amounts ΔDa to ΔDd than the input start times t1 to t4. Alternatively, the delay of the difference delay amount may be added to each sound material by adjusting the time when the sound material output unit 150 outputs the sound material processed by each processing module 140.

上記実施の形態では、基準遅延量が複数の処理モジュール140の処理遅延量のうち最大の処理遅延量と等しく設定されるが、基準遅延量が最大の処理遅延量よりも大きな値に設定されてもよい。また、上記実施の形態では、基準遅延量と各処理モジュールの処理遅延量との差分遅延量を算出することにより複数の処理モジュールへの音素材の入力から音素材の出力までの時間が基準遅延量と等しくなるように各音素材に遅延が与えられるが、差分遅延量を算出することなく複数の処理モジュールへの音素材の入力から音素材の出力までの時間を一定にしてもよい。   In the above embodiment, the reference delay amount is set equal to the maximum processing delay amount among the processing delay amounts of the plurality of processing modules 140, but the reference delay amount is set to a value larger than the maximum processing delay amount It is also good. In the above embodiment, the time from the input of the sound material to the plurality of processing modules to the output of the sound material is calculated by calculating the difference delay amount between the reference delay amount and the processing delay amount of each processing module. A delay is given to each sound material to be equal to the amount, but the time from the input of the sound material to the plurality of processing modules to the output of the sound material may be fixed without calculating the difference delay amount.

上記実施の形態では、各処理モジュール140に処理遅延量が記述されているが、例えば、記憶装置13または外部記憶装置15に複数の処理モジュール140の処理遅延量がテーブル等の形式で記憶されてもよい。上記実施の形態では、処理モジュール登録部210により登録された複数の処理モジュール140の処理遅延量に基づいて基準遅延量が設定されるが、全ての処理モジュール140の処理遅延量に基づいて基準遅延量が設定されてもよい。   In the above embodiment, although the processing delay amount is described in each processing module 140, for example, the processing delay amounts of the plurality of processing modules 140 are stored in the form of a table or the like in the storage device 13 or the external storage device 15. It is also good. In the above embodiment, although the reference delay amount is set based on the processing delay amounts of the plurality of processing modules 140 registered by the processing module registration unit 210, the reference delay is set based on the processing delay amounts of all the processing modules 140. An amount may be set.

上記実施の形態では、記憶装置13に複数の音素材が記憶されるが、複数の音素材が通信I/F14により通信網を経由して取得されてもよい。また、演奏データ入力部2または外部から入力される音響データから複数の音素材が取得されてもよい。さらに、処理の種類によっては、各音素材の処理方式が決定されつつ各音素材が処理および再生されてよく、またはマイク等の入力装置により入力される音響データから複数の音素材が取得されつつ各音素材についての処理方式の決定、決定された処理方式での処理および再生が順次行われてもよい。   Although a plurality of sound materials are stored in the storage device 13 in the above embodiment, a plurality of sound materials may be acquired by the communication I / F 14 via the communication network. Further, a plurality of sound materials may be acquired from the performance data input unit 2 or sound data input from the outside. Furthermore, depending on the type of processing, each sound material may be processed and reproduced while the processing method of each sound material is determined, or a plurality of sound materials may be acquired from sound data input by an input device such as a microphone. The determination of the processing method for each sound material, the processing and reproduction in the determined processing method may be sequentially performed.

上記実施の形態では、処理としてタイムストレッチが行われるが、本発明は、複数の音素材に音響効果を付与する音響効果処理、または複数の音素材を再生しつつ分析することによりコードを検出するコード検出処理等の他の処理にも適用可能である。コード検出処理には、処理時間は短いが例えば1小節毎にコードが検出されるような粗い方式、検出されるコードの種類が基本的なコードのみであってコードの検出結果の精度があまり高くない方式、処理時間は長いが例えば1拍毎にコードが検出されるような精度が高い方式等がある。コード検出処理に本発明を適用することにより、複数の音素材の自然な再生を行うことができるとともに各音素材に適したコードを検出することができる。   In the above embodiment, time stretch is performed as the process, but the present invention detects a code by performing an acoustic effect process that applies an acoustic effect to a plurality of sound materials, or analyzing and reproducing a plurality of sound materials. The present invention is also applicable to other processing such as code detection processing. In the code detection process, the processing time is short, but for example, a rough method in which the code is detected every measure, the type of the detected code is only the basic code, and the accuracy of the detection result of the code is very high There is a method without the method, a method with a long processing time, and a method with high accuracy, for example, in which a code is detected for each beat. By applying the present invention to code detection processing, natural reproduction of a plurality of sound materials can be performed, and a code suitable for each sound material can be detected.

上記実施の形態では、処理方式決定部160が各音素材の特徴またはパラメータの値に基づいて各音素材の処理方式を自動的に決定するが、処理方式決定部160がユーザの操作に基づいて各音素材の処理方式を決定してもよい。   In the above embodiment, the processing method determination unit 160 automatically determines the processing method of each sound material on the basis of the feature or parameter value of each sound material, but the processing method determination unit 160 determines the processing method on the basis of the user's operation. The processing method of each sound material may be determined.

上記実施の形態では、音素材処理装置100が電子音楽装置1に設けられているが、音素材処理装置100がパーソナルコンピュータ、スマートデバイス(smart device)、ゲーム機器等の電子機器に適用されてもよい。上記実施の形態に係る音素材処理装置100は、CPU11等のハードウエアおよび音素材処理プログラム等のソフトウエアにより実現されるが、図2または図6の音素材処理装置100の各構成要素が電子回路等のハードウエアにより実現されてもよい。   In the above embodiment, the sound material processing apparatus 100 is provided in the electronic music apparatus 1. However, even if the sound material processing apparatus 100 is applied to an electronic device such as a personal computer, a smart device (smart device) or a game machine Good. The sound material processing apparatus 100 according to the above embodiment is realized by hardware such as the CPU 11 and software such as a sound material processing program, but each component of the sound material processing apparatus 100 of FIG. 2 or FIG. It may be realized by hardware such as a circuit.

(8)請求項の各構成要素と実施の形態の各部との対応
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。
(8) Correspondence between each component of the claim and each part of the embodiment Hereinafter, an example of correspondence between each component of the claim and each part of the embodiment will be described, but the present invention is limited to the following example. I will not. As each component of a claim, various other elements having the configuration or function described in the claim can be used.

上記実施の形態では、処理モジュール140,140a〜140dが処理モジュールの例であり、音素材入力部120が入力手段の例であり、音素材出力部150が出力手段の例であり、処理遅延量取得部190が取得手段の例であり、差分遅延量算出部180が第1の設定手段の例であり、遅延部130,130a〜130dが遅延付与手段の例であり、パラメータ値設定部200が第2の設定手段の例である。   In the above embodiment, the processing modules 140 and 140a to 140d are examples of processing modules, the sound material input unit 120 is an example of input means, and the sound material output unit 150 is an example of output means. The acquisition unit 190 is an example of acquisition means, the differential delay amount calculation unit 180 is an example of first setting means, the delay units 130 and 130 a to 130 d are examples of delay giving means, and the parameter value setting unit 200 is It is an example of the 2nd setting means.

本発明は、複数の音素材を処理するため等に利用することができる。   The present invention can be used, for example, to process a plurality of sound materials.

1…電子音楽装置,6…タッチパネルディスプレイ,9…RAM,10…ROM,11…CPU,12…タイマ,13…記憶装置,15…外部記憶装置,18…サウンドシステム,19…バス,100…音素材処理装置,110…再生指示部,120…音素材入力部,130,130a〜130d…遅延部,140,140a〜140d…処理モジュール,150…音素材出力部,160…処理方式決定部,161…特徴情報取得部,162,163…好適性情報取得部,170…処理モジュール選択部,180…差分遅延量算出部,190…処理遅延量取得部,200…パラメータ値設定部,210…処理モジュール登録部 DESCRIPTION OF SYMBOLS 1 ... Electronic music apparatus, 6 ... Touch-panel display, 9 ... RAM, 10 ... ROM, 11 ... CPU, 12 ... Timer, 13 ... Storage device, 15 ... External storage device, 18 ... Sound system, 19 ... Bus, 100 ... Sound Material processing apparatus 110: reproduction instruction unit 120: sound material input unit 130, 130a to 130d delay unit 140, 140a to 140d processing module 150: sound material output unit 160: processing method determination unit 161 ... characteristic information acquisition unit 162, 163 ... suitability information acquisition unit, 170 ... processing module selection unit, 180 ... differential delay amount calculation unit, 190 ... processing delay amount acquisition unit, 200 ... parameter value setting unit, 210 ... processing module Registration department

Claims (5)

音素材をそれぞれ異なる処理方式で処理する複数の処理モジュールと、
複数の音素材の各々について処理方式を決定する決定手段と、
前記複数の音素材の各々を前記決定された処理方式に対応する処理モジュールに入力する入力手段と、
前記決定された処理方式に対応する処理モジュールにより処理された音素材を出力する出力手段と、
前記複数の処理モジュールの各々について音素材の処理に要する時間を処理遅延量として取得する取得手段と、
前記複数の処理モジュールについて取得された処理遅延量のうち最大の処理遅延量以上である基準遅延量を設定する第1の設定手段と、
前記入力手段による前記決定された処理モジュールへの音素材の入力から前記出力手段による音素材の出力までの時間が前記基準遅延量と等しくなるように前記入力手段による音素材の入力から前記出力手段による音素材の出力までの過程において音素材に遅延を与える遅延付与手段とを備える、音素材処理装置。
A plurality of processing modules for processing the sound material by different processing methods;
Determining means for determining a processing method for each of the plurality of sound materials;
Input means for inputting each of the plurality of sound materials into a processing module corresponding to the determined processing method;
Outputting means for outputting the sound material processed by the processing module corresponding to the determined processing method;
Acquisition means for acquiring the time required to process the sound material for each of the plurality of processing modules as a processing delay amount;
First setting means for setting a reference delay amount that is equal to or greater than a maximum processing delay amount among the processing delay amounts acquired for the plurality of processing modules;
The input means from the input of the sound material by the input means such that the time from the input of the sound material to the determined processing module by the input means to the output of the sound material by the output means is equal to the reference delay amount And a delay applying means for delaying the sound material in the process up to the output of the sound material.
前記遅延付与手段は、前記決定された処理モジュールについての処理遅延量と前記基準遅延量との差分を算出し、前記入力手段による音素材の入力時または前記出力手段による音素材の出力時において前記差分に相当する遅延を音素材に与える、請求項1記載の音素材処理装置。 The delay giving means calculates the difference between the processing delay amount for the determined processing module and the reference delay amount, and the input means for the sound material by the input means or the output of the sound material by the output means The sound material processing apparatus according to claim 1, wherein a delay corresponding to the difference is given to the sound material. 前記複数の処理モジュールの処理に関するパラメータの値を設定する第2の設定手段をさらに備え、
前記複数の処理モジュールの各々は、設定されたパラメータの値に応じた処理遅延量を有し、
前記取得手段は、前記複数の処理モジュールについて前記設定されたパラメータの値に応じた処理遅延量を取得する、請求項1または2記載の音素材処理装置。
The apparatus further comprises second setting means for setting values of parameters related to processing of the plurality of processing modules,
Each of the plurality of processing modules has a processing delay amount according to the value of the set parameter,
The sound material processing apparatus according to claim 1, wherein the acquisition unit acquires the processing delay amount according to the value of the parameter set for the plurality of processing modules.
前記決定手段は、各音素材の特徴に基づいて処理方式を決定する、請求項1〜3のいずれか一項に記載の音素材処理装置。 The sound material processing apparatus according to any one of claims 1 to 3, wherein the determination means determines the processing method based on the characteristics of each sound material. 複数の音素材の各々について処理方式を決定するステップと、
前記複数の音素材の各々を複数の処理モジュールのうち前記決定された処理方式に対応する処理モジュールに入力するステップと、
前記決定された処理方式に対応する処理モジュールにより処理された音素材を出力するステップと、
前記複数の処理モジュールの各々について音素材の処理に要する時間を処理遅延量として取得するステップと、
前記複数の処理モジュールについて取得された処理遅延量のうち最大の処理遅延量以上である基準遅延量を設定するステップと、
前記決定された処理モジュールへの音素材の入力から音素材の出力までの時間が前記基準遅延量と等しくなるように音素材の入力から音素材の出力までの過程において音素材に遅延を与えるステップとを、
コンピュータに実行させる、音素材処理プログラム。
Determining a processing scheme for each of the plurality of sound material;
Inputting each of the plurality of sound materials into a processing module corresponding to the determined processing method among the plurality of processing modules;
Outputting the sound material processed by the processing module corresponding to the determined processing method;
Acquiring a time required for processing the sound material for each of the plurality of processing modules as a processing delay amount;
Setting a reference delay amount that is equal to or greater than the maximum processing delay amount among the processing delay amounts acquired for the plurality of processing modules;
Applying a delay to the sound material in the process from the input of the sound material to the output of the sound material such that the time from the input of the sound material to the processing module to the output of the sound material is equal to the reference delay amount And
Sound material processing program to be run on a computer.
JP2015105440A 2015-05-25 2015-05-25 Sound material processing apparatus and sound material processing program Expired - Fee Related JP6519316B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015105440A JP6519316B2 (en) 2015-05-25 2015-05-25 Sound material processing apparatus and sound material processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015105440A JP6519316B2 (en) 2015-05-25 2015-05-25 Sound material processing apparatus and sound material processing program

Publications (2)

Publication Number Publication Date
JP2016218347A JP2016218347A (en) 2016-12-22
JP6519316B2 true JP6519316B2 (en) 2019-05-29

Family

ID=57581018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015105440A Expired - Fee Related JP6519316B2 (en) 2015-05-25 2015-05-25 Sound material processing apparatus and sound material processing program

Country Status (1)

Country Link
JP (1) JP6519316B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3594409B2 (en) * 1995-06-30 2004-12-02 三洋電機株式会社 MPEG audio playback device and MPEG playback device
JP3946869B2 (en) * 1998-06-15 2007-07-18 ローランド株式会社 Waveform compression / decompression device
JP4380174B2 (en) * 2003-02-27 2009-12-09 沖電気工業株式会社 Band correction device
JP2005136463A (en) * 2003-10-28 2005-05-26 Pioneer Electronic Corp Device, system, method, and program for data transmission, and recording medium with the program recorded
JP5049652B2 (en) * 2006-09-07 2012-10-17 キヤノン株式会社 Communication system, data reproduction control method, controller, controller control method, adapter, adapter control method, and program
JP5012263B2 (en) * 2007-07-04 2012-08-29 ヤマハ株式会社 Performance clock generating device, data reproducing device, performance clock generating method, data reproducing method and program

Also Published As

Publication number Publication date
JP2016218347A (en) 2016-12-22

Similar Documents

Publication Publication Date Title
JP4645241B2 (en) Voice processing apparatus and program
CN111656434B (en) Sound parameter adjustment device, sound parameter adjustment method, and recording medium
CN113874932A (en) Electronic musical instrument, control method for electronic musical instrument, and storage medium
WO2020095951A1 (en) Acoustic processing method and acoustic processing system
JP6011219B2 (en) Audio file generation program and audio file generation apparatus
JP2007293013A (en) Musical synthesizer and program
JP6175812B2 (en) Musical sound information processing apparatus and program
JP7230413B2 (en) SOUND SIGNAL GENERATOR, SOUND SIGNAL GENERATING METHOD AND SOUND SIGNAL GENERATING PROGRAM
JP4561636B2 (en) Musical sound synthesizer and program
JP6155950B2 (en) Sampling apparatus, sampling method and program
EP3373289A1 (en) Electronic musical instrument, musical sound generating method, and storage medium
JP6519316B2 (en) Sound material processing apparatus and sound material processing program
JP6171393B2 (en) Acoustic synthesis apparatus and acoustic synthesis method
JP6524795B2 (en) Sound material processing apparatus and sound material processing program
JP4433734B2 (en) Speech analysis / synthesis apparatus, speech analysis apparatus, and program
JP6953746B2 (en) Electronic sound device and tone setting method
JP2016218345A (en) Sound material processor and sound material processing program
JP6337698B2 (en) Sound processor
JP7425558B2 (en) Code detection device and code detection program
JP5359203B2 (en) Music processing apparatus and program
JP6597533B2 (en) Waveform data selection device and waveform data selection method
JP4236570B2 (en) Waveform playback device and waveform playback program
JP4168391B2 (en) Karaoke apparatus, voice processing method and program
JP6428852B2 (en) Sampling apparatus, electronic musical instrument, method and program
JP3744247B2 (en) Waveform compression method and waveform generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190408

R151 Written notification of patent or utility model registration

Ref document number: 6519316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees