JP6819384B2 - Sequence data processing method and information processing equipment - Google Patents

Sequence data processing method and information processing equipment Download PDF

Info

Publication number
JP6819384B2
JP6819384B2 JP2017052951A JP2017052951A JP6819384B2 JP 6819384 B2 JP6819384 B2 JP 6819384B2 JP 2017052951 A JP2017052951 A JP 2017052951A JP 2017052951 A JP2017052951 A JP 2017052951A JP 6819384 B2 JP6819384 B2 JP 6819384B2
Authority
JP
Japan
Prior art keywords
sequence data
processing
sound signal
pitch
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017052951A
Other languages
Japanese (ja)
Other versions
JP2018155937A (en
Inventor
慶太 有元
慶太 有元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017052951A priority Critical patent/JP6819384B2/en
Publication of JP2018155937A publication Critical patent/JP2018155937A/en
Application granted granted Critical
Publication of JP6819384B2 publication Critical patent/JP6819384B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、シーケンスデータを加工する技術に関する。 The present invention relates to a technique for processing sequence data.

CD(Compact Disc)等の記録媒体に記録された楽曲の少なくとも一部をMIDI(Musical Instrument Digital Interface)等のシーケンスデータを用いて記述することが知られている。MIDIデータの入力は、ユーザー(作業者)が楽曲を聴きながら手作業で行うのが一般的である。これに関し、特許文献1には与えられたパターンに基づいて、演奏データに音量制御情報を付加する技術が開示されている。 It is known that at least a part of music recorded on a recording medium such as a CD (Compact Disc) is described by using sequence data such as MIDI (Musical Instrument Digital Interface). MIDI data is generally input manually by a user (worker) while listening to a musical piece. In this regard, Patent Document 1 discloses a technique for adding volume control information to performance data based on a given pattern.

特許第3900187号公報Japanese Patent No. 3900187

ユーザーが手作業でシーケンスデータの入力を行うと、音楽表現としてのアーティキュレーション(ビブラート等)の情報を入力するための加工が煩雑であるという問題があった。また、特許文献1の技術においては、パターンに無い音量制御情報が付加できないという問題があった。 When the user manually inputs the sequence data, there is a problem that the processing for inputting the information of the articulation (vibrato etc.) as a musical expression is complicated. Further, in the technique of Patent Document 1, there is a problem that volume control information that is not in the pattern cannot be added.

これに対し本発明は、音信号に基づいてシーケンスデータをより容易に加工する技術を提供する。 On the other hand, the present invention provides a technique for more easily processing sequence data based on a sound signal.

本発明は、所定の楽曲のシーケンスデータの少なくとも一部を、前記所定の楽曲の音信号に基づいて加工するシーケンスデータ加工方法を提供する。 The present invention provides a sequence data processing method for processing at least a part of sequence data of a predetermined music based on a sound signal of the predetermined music.

前記音信号は、楽器の演奏音を含み、前記シーケンスデータは、楽器を演奏するためのシーケンスを示してもよい。 The sound signal includes the performance sound of the musical instrument, and the sequence data may indicate a sequence for playing the musical instrument.

前記シーケンスデータは、音高を示す情報を含み、前記シーケンスデータと前記音信号とのマッチングをするステップを有し、前記マッチングの結果に応じて前記シーケンスデータを加工してもよい。 The sequence data includes information indicating a pitch, has a step of matching the sequence data with the sound signal, and may process the sequence data according to the result of the matching.

このシーケンスデータ加工方法は、前記加工されたシーケンスデータをフィルター処理するステップを有してもよい。 This sequence data processing method may include a step of filtering the processed sequence data.

前記フィルター処理は、シーケンスデータにおける音高の変化を抑制する処理であってもよい。 The filtering process may be a process of suppressing a change in pitch in the sequence data.

前記フィルター処理は、音長がしきい値より短い音に対してはシーケンスデータの加工を抑制する処理であってもよい。 The filtering process may be a process of suppressing the processing of sequence data for sounds whose sound length is shorter than the threshold value.

前記フィルター処理は、複音に対してはシーケンスデータの加工を抑制する処理であってもよい。 The filtering process may be a process of suppressing processing of sequence data for multiple sounds.

このシーケンスデータ加工方法は、前記加工されたシーケンスデータの編集の指示を受け付けるステップと、前記指示に応じて前記シーケンスデータを編集するステップとを有してもよい。 This sequence data processing method may include a step of receiving an instruction for editing the processed sequence data and a step of editing the sequence data in response to the instruction.

また、本発明は、所定の楽曲のシーケンスデータの少なくとも一部を、前記所定の楽曲の音信号に基づいて加工するする加工部を有する情報処理装置を提供する。 The present invention also provides an information processing device having a processing unit that processes at least a part of sequence data of a predetermined musical piece based on a sound signal of the predetermined musical piece.

本発明によれば、シーケンスデータを音信号に基づいて容易に加工することができる。 According to the present invention, sequence data can be easily processed based on a sound signal.

第1実施形態に係るシーケンスデータ加工システム1の機能構成を例示する図。The figure which illustrates the functional structure of the sequence data processing system 1 which concerns on 1st Embodiment. シーケンスデータ加工システム1のハードウェア構成を例示する図。The figure which illustrates the hardware configuration of the sequence data processing system 1. 第1実施形態に係る動作を例示するフローチャート。The flowchart which illustrates the operation which concerns on 1st Embodiment. ステップS3における加工処理の詳細を例示するフローチャート。The flowchart which illustrates the detail of the processing process in step S3. ステップS35における処理を例示する図。The figure which illustrates the process in step S35. 加工部13により処理されたシーケンスデータを例示する図。The figure which illustrates the sequence data processed by the processing part 13. シーケンスデータ加工システム1の第2実施形態に係る機能構成を例示する図。The figure which illustrates the functional structure which concerns on 2nd Embodiment of the sequence data processing system 1. 第2実施形態に係る動作を例示するフローチャート。The flowchart which illustrates the operation which concerns on 2nd Embodiment. フィルター処理の一例を示す図。The figure which shows an example of the filtering process. フィルター処理の別の例を示す図。The figure which shows another example of filtering. フィルター処理のさらに別の例を示す図。The figure which shows still another example of filtering. シーケンスデータ加工システム1の第3実施形態に係る機能構成を例示する図。The figure which illustrates the functional structure which concerns on 3rd Embodiment of the sequence data processing system 1. 第3実施形態に係る動作を例示する図。The figure which illustrates the operation which concerns on 3rd Embodiment. シーケンスデータを編集するためのUI画面を例示する図。The figure which illustrates the UI screen for editing sequence data.

1.第1実施形態
1−1.構成
図1は、第1実施形態に係るシーケンスデータ加工システム1の機能構成を例示する図である。シーケンスデータ加工システム1は、与えられたシーケンスデータを加工する。シーケンスデータは、処理装置2において行われる処理のシーケンス、すなわち処理の内容とそのタイミングを記述したデータである。処理装置2は、シーケンスデータに従って処理を行う装置である。一例において、処理装置2はミュージックシーケンサー又は自動演奏楽器であり、シーケンスデータは自動演奏楽器において所定の楽曲を演奏するためのシーケンスを示すデータである。シーケンスデータは、例えばMIDI(Musical Instrument Digital Interface)であり、音高を示す情報を含む。
1. 1. First Embodiment 1-1. Configuration FIG. 1 is a diagram illustrating the functional configuration of the sequence data processing system 1 according to the first embodiment. The sequence data processing system 1 processes the given sequence data. The sequence data is data that describes the sequence of processing performed in the processing device 2, that is, the content of the processing and its timing. The processing device 2 is a device that performs processing according to sequence data. In one example, the processing device 2 is a music sequencer or an automatic musical instrument, and the sequence data is data indicating a sequence for playing a predetermined musical piece in the automatic musical instrument. The sequence data is, for example, MIDI (Musical Instrument Digital Interface), and includes information indicating the pitch.

シーケンスデータ加工システム1は、シーケンス入力部11、音入力部12、加工部13、出力部14、及びUI(User Interface)部15を有する。シーケンス入力部11は、シーケンスデータの入力を受け付ける。音入力部12は、音信号の入力を受け付ける。一例において、音信号は楽器の演奏音を含み、シーケンスデータはミュージックシーケンサーにおいてその楽器の音を出力するためのデータ、又は自動演奏楽器において演奏を行うためのデータである。加工部13は、シーケンス入力部11を介して入力されたシーケンスデータの少なくとも一部を、音入力部12を介して入力された音信号に基づいて加工する。出力部14は、加工されたシーケンスデータを出力する。UI部15は、シーケンスデータの加工を行うためのユーザーインターフェースを提供する。 The sequence data processing system 1 includes a sequence input unit 11, a sound input unit 12, a processing unit 13, an output unit 14, and a UI (User Interface) unit 15. The sequence input unit 11 receives input of sequence data. The sound input unit 12 receives an input of a sound signal. In one example, the sound signal includes the performance sound of a musical instrument, and the sequence data is data for outputting the sound of the musical instrument in the music sequencer or data for performing performance in the automatic performance instrument. The processing unit 13 processes at least a part of the sequence data input via the sequence input unit 11 based on the sound signal input via the sound input unit 12. The output unit 14 outputs the processed sequence data. The UI unit 15 provides a user interface for processing sequence data.

図2は、シーケンスデータ加工システム1のハードウェア構成を例示する図である。この例において、シーケンスデータ加工システム1は、情報処理装置10によって構成される。情報処理装置10は、CPU(Central Processing Unit)101、メモリー102、ストレージ103、通信IF104、入出力IF105、入力装置106、ディスプレイ107、及びスピーカ108を有するコンピュータ装置、例えばスマートフォン、タブレット端末、又はパーソナルコンピュータである。CPU101は、プログラムに従って各種の演算を行い、情報処理装置10の他のハードウェア要素を制御する制御装置である。メモリー102はCPU101が処理を実行する際のワークエリアとして機能する主記憶装置であり、例えばROM(Read Only Memory)及びRAM(Random Access Memory)を含む。ストレージ103は各種のデータ及びプログラムを記憶する補助記憶装置であり、例えばSSD(Solid State Drive)又はHDD(Hard Disk Drive)を含む。通信IF204は、所定の通信規格に従って他の装置と通信を行うための装置であり、例えば無線通信を行うためのアンテナ及びチップセットを含む。入出力IF105は、外部装置と信号の入出力を行うための装置であり、例えば信号の入力端子及びA/D変換器を含む。この例においては、音信号が入出力IF105を介して入力される。入力装置106はユーザーが情報又は指示を入力するための装置であり、例えばタッチデバイス又はキーボードを含む。ディスプレイ107は、映像を出力する装置である。スピーカ108は、音声を出力する装置である。 FIG. 2 is a diagram illustrating a hardware configuration of the sequence data processing system 1. In this example, the sequence data processing system 1 is configured by the information processing device 10. The information processing device 10 is a computer device having a CPU (Central Processing Unit) 101, a memory 102, a storage 103, a communication IF 104, an input / output IF 105, an input device 106, a display 107, and a speaker 108, for example, a smartphone, a tablet terminal, or a personal computer. It is a computer. The CPU 101 is a control device that performs various calculations according to a program and controls other hardware elements of the information processing device 10. The memory 102 is a main storage device that functions as a work area when the CPU 101 executes processing, and includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage 103 is an auxiliary storage device that stores various data and programs, and includes, for example, an SSD (Solid State Drive) or an HDD (Hard Disk Drive). The communication IF 204 is a device for communicating with another device according to a predetermined communication standard, and includes, for example, an antenna and a chipset for performing wireless communication. The input / output IF 105 is a device for inputting / outputting a signal to / from an external device, and includes, for example, a signal input terminal and an A / D converter. In this example, the sound signal is input via the input / output IF 105. The input device 106 is a device for the user to input information or instructions, and includes, for example, a touch device or a keyboard. The display 107 is a device that outputs an image. The speaker 108 is a device that outputs sound.

この例において、ストレージ103は、コンピュータ装置をシーケンスデータ加工システム1として機能させるためのプログラム(以下「シーケンスデータ加工プログラム」という)を記憶する。CPU101がシーケンスデータ加工プログラムを実行している状態において、通信IF104、入出力IF105、及び入力装置106の少なくとも1つはシーケンス入力部11の一例である。入出力IF105は音入力部12の一例である。CPU101は加工部13の一例である。ストレージ103、入出力IF105、及びディスプレイ107の少なくとも1つは出力部14の一例である。入力装置105、ディスプレイ107、及びスピーカ108は、UI部15の一例である。 In this example, the storage 103 stores a program (hereinafter referred to as “sequence data processing program”) for operating the computer device as the sequence data processing system 1. While the CPU 101 is executing the sequence data processing program, at least one of the communication IF 104, the input / output IF 105, and the input device 106 is an example of the sequence input unit 11. The input / output IF 105 is an example of the sound input unit 12. The CPU 101 is an example of the processing unit 13. At least one of the storage 103, the input / output IF 105, and the display 107 is an example of the output unit 14. The input device 105, the display 107, and the speaker 108 are examples of the UI unit 15.

1−2.動作
図3は、シーケンスデータ加工システム1の第1実施形態に係る動作(シーケンスデータ加工方法)を例示するフローチャートである。図3のフローは、例えば、UI部15を介してユーザーからシーケンスデータの加工を開始する指示が入力されたことを契機として開始される。以下においてはUI部15等の機能要素を処理の主体として記載するが、これは、シーケンスデータ加工プログラムを実行しているCPU101等のハードウェア要素が他のハードウェア要素と協働して処理を実行することを意味する。また、ここでは、処理装置2がミュージックシーケンサーであり、シーケンスデータがMIDIデータである例を説明する。
1-2. Operation FIG. 3 is a flowchart illustrating an operation (sequence data processing method) according to the first embodiment of the sequence data processing system 1. The flow of FIG. 3 is started, for example, when an instruction to start processing sequence data is input from the user via the UI unit 15. In the following, the functional elements such as the UI unit 15 are described as the main body of the processing, but this is because the hardware elements such as the CPU 101 executing the sequence data processing program perform the processing in cooperation with the other hardware elements. Means to do. Further, here, an example in which the processing device 2 is a music sequencer and the sequence data is MIDI data will be described.

ステップS1において、シーケンス入力部11は、シーケンスデータの入力を受け付ける。このシーケンスデータは、ある楽曲(以下「対象曲」という。所定の楽曲の一例)のうちある楽器(以下「対象楽器」という。例えばギター)の演奏音を出力するためのデータである。このシーケンスデータは、例えば、対象曲を聞いた作業者(ユーザー)が、UI部15を介して手作業で入力したデータである。このシーケンスデータは、対象楽器による演奏音の音高、音長、及び発音タイミングを示す情報を含んでいるが、音楽表現としてのアーティキュレーションの情報は含んでいないか、含んでいたとしても十分ではない。ここでいうアーティキュレーションは、例えば、音の強弱、スラー、スタッカート、ビブラート、及びチョーキング等の表現を含む。 In step S1, the sequence input unit 11 receives the input of sequence data. This sequence data is data for outputting the performance sound of a certain musical instrument (hereinafter referred to as "target musical instrument", for example, a guitar) in a certain musical piece (hereinafter referred to as "target song"; an example of a predetermined song). This sequence data is, for example, data manually input by a worker (user) who has heard the target song via the UI unit 15. This sequence data includes information indicating the pitch, length, and timing of the performance sound of the target instrument, but does not include, or even contains, information on articulation as a musical expression. is not it. The articulation referred to here includes, for example, expressions such as sound intensity, slur, staccato, vibrato, and choking.

ステップS2において、音入力部12は、音信号の入力を受け付ける。この音信号は、対象曲の演奏音を示す信号である。この演奏音は、対象楽器の音だけでなく、他の楽器の音、及び楽器以外の音源から発せられた音(例えば人間の声)を含む。一例において、この音信号は、CD(Compact Disc)等の媒体に記録された対象曲の音信号を再生したものである。 In step S2, the sound input unit 12 receives the input of the sound signal. This sound signal is a signal indicating the performance sound of the target song. This performance sound includes not only the sound of the target musical instrument but also the sound of another musical instrument and the sound emitted from a sound source other than the musical instrument (for example, a human voice). In one example, this sound signal is a reproduction of the sound signal of a target song recorded on a medium such as a CD (Compact Disc).

ステップS3において、加工部13は、シーケンスデータを音信号に基づいて加工する。ここでいう加工には、例えば、アーティキュレーションの情報を付加する処理を含む。ステップS3の処理は後述する。ステップS4において、出力部14は、加工されたシーケンスデータを出力する。ここでいう出力には、例えば、記憶装置又は記憶媒体への記録、有線又は無線通信による送信、及び表示装置における表示のうち少なくとも1つが含まれる。 In step S3, the processing unit 13 processes the sequence data based on the sound signal. The processing referred to here includes, for example, a processing for adding articulation information. The process of step S3 will be described later. In step S4, the output unit 14 outputs the processed sequence data. The output referred to here includes, for example, recording to a storage device or a storage medium, transmission by wired or wireless communication, and display on a display device.

図4は、ステップS3における加工処理の詳細を例示するフローチャートである。ステップS3における加工処理は、音信号から主だったピッチ成分の候補を抽出する処理、音信号とシーケンスデータとのマッチングを取る処理、及び音信号からピッチの動きをシーケンスデータに転写する処理を含む。以下において、加工前のシーケンスデータにより示される、時刻t[k]における音高をPb(t[k])と表す。時刻t[k]は対象楽曲の時間領域における位置を示す。以下の処理は、時間領域を所定のフレームに区分して繰り返し行われる。時刻t[k]は第kフレームの時刻を示す。また、加工後のシーケンスデータにより示される、時刻tにおける音高をPa(t[k])と表す。 FIG. 4 is a flowchart illustrating the details of the machining process in step S3. The processing process in step S3 includes a process of extracting main pitch component candidates from the sound signal, a process of matching the sound signal with the sequence data, and a process of transferring the pitch movement from the sound signal to the sequence data. .. In the following, the pitch at time t [k], which is indicated by the sequence data before processing, is expressed as Pb (t [k]). The time t [k] indicates the position of the target music in the time domain. The following processing is repeated by dividing the time domain into predetermined frames. The time t [k] indicates the time of the kth frame. Further, the pitch at time t, which is indicated by the sequence data after processing, is expressed as Pa (t [k]).

ステップS31において、加工部13は、入力された音信号からピッチ尤度関数L(p,t[k])を得る。ピッチ尤度関数とは、ピッチ(音高)の尤もらしさの時間変化を示す情報である。ピッチ尤度関数L(p,t[k])は、時刻t[k]において音高がpである尤度を示す。音信号からピッチ尤度関数を得る手法としては、周知の技術が用いられる。一例において、J. Salamon et. al., Emilia Gomez and Jordi Bonada “SINUSOID EXTRACTION AND SALIENCE FUNCTION DESIGN FOR PREDOMINANT MELODY ESTIMATION”,Proc. of the 14th Int. Conference on Digital Audio Effects (DAFx-11), Paris, France, September 19-23, 2011に記載された技術が用いられる。なおステップS31の処理は、音信号から主だったピッチ成分の候補を抽出する処理の一例である。 In step S31, the processing unit 13 obtains the pitch likelihood function L (p, t [k]) from the input sound signal. The pitch likelihood function is information indicating the time change of the likelihood of pitch (pitch). The pitch likelihood function L (p, t [k]) indicates the likelihood that the pitch is p at time t [k]. A well-known technique is used as a method for obtaining a pitch likelihood function from a sound signal. In one example, J. Salamon et. Al., Emilia Gomez and Jordi Bonada “SINUSOID EXTRACTION AND SALIENCE FUNCTION DESIGN FOR PREDOMINANT MELODY ESTIMATION”, Proc. Of the 14th Int. Conference on Digital Audio Effects (DAFx-11), Paris, France , September 19-23, 2011, the techniques described are used. The process of step S31 is an example of a process of extracting the main pitch component candidates from the sound signal.

ステップS32において、加工部13は、時刻t[k]を初期化する。具体的には、加工部13は、k=0に初期化する。 In step S32, the processing unit 13 initializes the time t [k]. Specifically, the processing unit 13 is initialized to k = 0.

ステップS33において、加工部13は、現在のフレームがノートの開始位置を含んでいるか判断する。シーケンスデータには、ノートの開始位置を示す情報が含まれている。加工部13は、シーケンスデータを参照し、現在のフレームがノートの開始位置を含んでいるか判断する。現在のフレームがノートの開始位置を含んでいると判断された場合(ステップS33:YES)、加工部13は、処理をステップS34に移行する。現在のフレームがノートの開始位置を含んでいないと判断された場合(ステップS33:NO)、加工部13は、処理をステップS35に移行する。 In step S33, the processing unit 13 determines whether the current frame includes the start position of the note. The sequence data includes information indicating the start position of the note. The processing unit 13 refers to the sequence data and determines whether the current frame includes the start position of the note. When it is determined that the current frame includes the start position of the note (step S33: YES), the processing unit 13 shifts the process to step S34. When it is determined that the current frame does not include the start position of the note (step S33: NO), the processing unit 13 shifts the process to step S35.

ステップS34において、加工部13は、次のステップS34における計算に用いるため、前フレームの加工後の音高Pa(t[k−1])を、加工前の音高Pb(t[k])と同じ値に設定する。すなわち、
Pa(t[k−1])=Pb(t[k])
である(ステップS34において計算されるPa(t[k−1])はステップS34の計算に用いるための仮の値であり、シーケンスデータに付加される情報とは異なる)。なおステップS34の処理は、音信号とシーケンスデータとのマッチングを取る処理の一例である。ステップS34の処理を終えると、加工部13は、処理をステップS35に移行する。
In step S34, the processing unit 13 uses the processed pitch Pa (t [k-1]) of the front frame as the pitch Pb (t [k]) before processing because it is used for the calculation in the next step S34. Set to the same value as. That is,
Pa (t [k-1]) = Pb (t [k])
(Pa (t [k-1]) calculated in step S34 is a tentative value to be used in the calculation in step S34, and is different from the information added to the sequence data). The process of step S34 is an example of a process of matching the sound signal and the sequence data. When the process of step S34 is completed, the processing unit 13 shifts the process to step S35.

ステップS35において、加工部13は、前フレームの加工後の音高Pa(t[k−1])を中心とする所定の分布関数f(t[k−1])に、ピッチ尤度関数L(p,t[k])を乗算する。両者の積においてピークを与える音高を、現フレームの音高Pa(t[k])とする。すなわち、
Pa(t[k])=p[max]
ただし、p[max]は、f(t[k−1])・L(p,t[k])の最大値を与えるpである。分布関数fとしては、例えば、ガウス分布が用いられる。Pa(t[k])は、Pb(t[k])に対しシーケンスデータに従った情報(例えばMIDIにおけるピッチベンドイベント)に変換され、シーケンスデータに付加される。なおステップS35の処理は、音信号からピッチの動きをシーケンスデータに転写する処理の一例である。
In step S35, the processing unit 13 applies the pitch likelihood function L to a predetermined distribution function f (t [k-1]) centered on the pitch Pa (t [k-1]) after processing of the front frame. Multiply (p, t [k]). The pitch that gives a peak in the product of the two is defined as the pitch Pa (t [k]) of the current frame. That is,
Pa (t [k]) = p [max]
However, p [max] is p that gives the maximum value of f (t [k-1]) · L (p, t [k]). As the distribution function f, for example, a Gaussian distribution is used. Pa (t [k]) is converted into information according to the sequence data for Pb (t [k]) (for example, a pitch bend event in MIDI) and added to the sequence data. The process of step S35 is an example of a process of transferring the pitch movement from the sound signal to the sequence data.

図5は、ステップS35における処理を例示する図である。図の背景部分が尤度関数を示している。横軸が時刻を、縦軸が周波数を、それぞれ示している。尤度は色の濃淡で示されており、濃い(暗い)部分は尤度が低いことを、淡い(明るい)部分は尤度が高いことを示している。前フレームの加工後の音高Pa(t[k−1])及び分布関数f(t[k−1])が図中に例示されている。 FIG. 5 is a diagram illustrating the process in step S35. The background part of the figure shows the likelihood function. The horizontal axis shows the time and the vertical axis shows the frequency. The likelihood is indicated by the shade of color, and the dark (dark) part indicates that the likelihood is low, and the light (bright) part indicates that the likelihood is high. The pitch Pa (t [k-1]) and the distribution function f (t [k-1]) after processing the front frame are illustrated in the figure.

再び図4を参照して説明する。ステップS36において、加工部13は、処理対象のフレームを次のフレームに更新する。処理対象のフレームを更新すると、加工部13は、処理を再びステップS33に移行する。加工部13は、シーケンスデータのすべてのフレームについて処理が完了するまでステップS33〜S36の処理を繰り返し実行する。 This will be described again with reference to FIG. In step S36, the processing unit 13 updates the frame to be processed to the next frame. When the frame to be processed is updated, the processing unit 13 shifts the processing to step S33 again. The processing unit 13 repeatedly executes the processing of steps S33 to S36 until the processing is completed for all the frames of the sequence data.

図6は、加工部13により処理されたシーケンスデータを例示する図である。この図は図5と同様に、背景部分が尤度関数を示している。加工前の音高Pb及び加工後の音高Paが背景に重ねて示されている。この図においては、シーケンスデータは音高の時間変化を示すピッチカーブとして描かれている。この例によれば、シーケンスデータに対してアーティキュレーションの情報を自動的に付加することができる。 FIG. 6 is a diagram illustrating sequence data processed by the processing unit 13. In this figure, as in FIG. 5, the background portion shows the likelihood function. The pitch Pb before processing and the pitch Pa after processing are shown superimposed on the background. In this figure, the sequence data is drawn as a pitch curve showing the time change of pitch. According to this example, articulation information can be automatically added to the sequence data.

2.第2実施形態
図7は、シーケンスデータ加工システム1の第2実施形態に係る機能構成を例示する図である。以下、第1実施形態と共通する事項については説明を省略する。第2実施形態において、シーケンスデータ加工システム1は、フィルター部16を有する。フィルター部16は、加工部13により加工されたシーケンスデータをフィルター処理する。ここで、フィルター処理とは、加工部13において付加されたアーティキュレーションの情報の少なくとも一部を除去する処理をいう。
2. 2. Second Embodiment FIG. 7 is a diagram illustrating a functional configuration according to the second embodiment of the sequence data processing system 1. Hereinafter, the matters common to the first embodiment will be omitted. In the second embodiment, the sequence data processing system 1 has a filter unit 16. The filter unit 16 filters the sequence data processed by the processing unit 13. Here, the filtering process means a process of removing at least a part of the articulation information added in the processing unit 13.

図8は、シーケンスデータ加工システム1の第2実施形態に係る動作(シーケンスデータ加工方法)を例示するフローチャートである。ステップS5において、フィルター部16は、加工部13により加工されたシーケンスデータをフィルター処理する。 FIG. 8 is a flowchart illustrating an operation (sequence data processing method) according to the second embodiment of the sequence data processing system 1. In step S5, the filter unit 16 filters the sequence data processed by the processing unit 13.

図9は、フィルター処理の一例を示す図である。この例において、フィルター処理は、音高の急激な変化を抑制する処理である。シーケンスデータとピッチ尤度関数とのマッチングが上手くいかなかった場合、又はピッチ尤度関数からシーケンスデータへのピッチの動きの転写が上手くいかなかった場合等に、音高の急激な変化(ジャンプ)が生じることがある。そこでこの例においては、音高の急激な変化が生じた場合には加工部13における加工処理において不具合が発生したものとみなし、音高さの急激な変化を生じさせる情報をシーケンスデータから除去する。一例において、加工部13はシーケンスデータにピッチベンドイベントを付加するので、フィルター部16は、ピッチベンドイベントにより示される音高の変化がしきい値を超えた場合、そのピッチベンドイベントをシーケンスデータから削除する。このしきい値は、シーケンスデータ加工システム1においてあらかじめ設定されている。あるいは、このしきい値は、UI部15を介してユーザーにより指定されてもよい。 FIG. 9 is a diagram showing an example of filtering. In this example, the filtering process is a process of suppressing a sudden change in pitch. Sudden change in pitch (jump) when the matching between the sequence data and the pitch likelihood function does not go well, or when the transfer of the pitch movement from the pitch likelihood function to the sequence data does not go well. May occur. Therefore, in this example, when a sudden change in pitch occurs, it is considered that a problem has occurred in the processing in the processing unit 13, and the information that causes the sudden change in pitch is removed from the sequence data. .. In one example, since the processing unit 13 adds a pitch bend event to the sequence data, the filter unit 16 deletes the pitch bend event from the sequence data when the change in pitch indicated by the pitch bend event exceeds the threshold value. This threshold value is preset in the sequence data processing system 1. Alternatively, this threshold may be specified by the user via the UI unit 15.

この例によれば、しきい値Thを超える大きさのピッチベンドイベントは、しきい値Thと同じ大きさのピッチベンドイベントに置換される。すなわち、結果的に、しきい値を超える音高の変化は、しきい値と同じ音高の変化に抑制される。別の例において、しきい値Thを超える大きさのピッチベンドイベントが付加されたノートについては、すべてのピッチベンドイベントが削除されてもよい。 According to this example, a pitch bend event having a magnitude exceeding the threshold value Th is replaced with a pitch bend event having the same magnitude as the threshold value Th. That is, as a result, the change in pitch exceeding the threshold value is suppressed to the same change in pitch as the threshold value. In another example, all pitch bend events may be deleted for a note to which a pitch bend event having a magnitude exceeding the threshold Th is added.

なおこの例において、音高の変化の大きさ(しきい値との対比)に加え、音高が変化した後における音高の変化の安定性を考慮してフィルター処理を行ってもよい。例えば、フィルター部16は、音高の変化の大きさがしきい値よりも大きく、かつ変化後の音高が不安定である場合にのみ、そのピッチベンドイベントを削除してもよい。音高の変化の安定性は、例えば、音高の変化量の絶対値を積算した値を、ノートの時間長で除した値により評価される。 In this example, in addition to the magnitude of the change in pitch (compared to the threshold value), the filtering process may be performed in consideration of the stability of the change in pitch after the change in pitch. For example, the filter unit 16 may delete the pitch bend event only when the magnitude of the change in pitch is larger than the threshold value and the pitch after the change is unstable. The stability of the change in pitch is evaluated, for example, by the value obtained by dividing the value obtained by integrating the absolute value of the amount of change in pitch by the time length of the note.

図10は、フィルター処理の別の例を示す図である。この例において、フィルター処理は、短音について加工を抑制する処理である。一般に音楽表現としてのアーティキュレーションは音長がある程度長いノートに付加されることが多く、音長が短いノートにアーティキュレーションが付加されることはほとんどない。そこでこの例においては、音長がしきい値より短いノートについては、フィルター部16は、アーティキュレーションの情報をシーケンスデータから削除する。 FIG. 10 is a diagram showing another example of filtering. In this example, the filtering process is a process of suppressing the processing of short sounds. In general, articulation as a musical expression is often added to a note having a long note length to some extent, and articulation is rarely added to a note having a short note length. Therefore, in this example, the filter unit 16 deletes the articulation information from the sequence data for notes whose note length is shorter than the threshold value.

図11は、フィルター処理の別の例を示す図である。この例において、フィルター処理は、複音について加工を抑制する処理である。一般に音楽表現としてのアーティキュレーションは単音に付加されることが多く、複音にアーティキュレーションが付加されることはほとんどない。そこでこの例においては、複音を構成するノートについては、フィルター部16は、アーティキュレーションの情報をシーケンスデータから削除する。なお複音とは、同じタイミングにおいて発せられる複数のノートをいう。 FIG. 11 is a diagram showing another example of filtering. In this example, the filtering process is a process of suppressing processing of polyphony. In general, articulation as a musical expression is often added to a single note, and articulation is rarely added to a compound note. Therefore, in this example, the filter unit 16 deletes the articulation information from the sequence data for the notes constituting the compound sound. Note that the compound sound means a plurality of notes emitted at the same timing.

再び図8を参照する。ステップS6において、出力部14は、フィルター部16によりフィルター処理されたシーケンスデータを出力する。出力処理の詳細は図3のステップS4と同様である。これらの例によれば、誤って付加されたアーティキュレーション情報、又は音楽表現上アーティキュレーションが付加される可能性が低い部分に付加されたアーティキュレーション情報を除去することができる。なお、図9〜11において例示されたフィルター処理のうち2つ以上の処理が組み合わせて用いられてもよい。 See FIG. 8 again. In step S6, the output unit 14 outputs the sequence data filtered by the filter unit 16. The details of the output process are the same as in step S4 of FIG. According to these examples, it is possible to remove the articulation information added by mistake or the articulation information added to the portion where the articulation is unlikely to be added in the musical expression. In addition, two or more of the filter treatments exemplified in FIGS. 9 to 11 may be used in combination.

3.第3実施形態
図12は、シーケンスデータ加工システム1の第3実施形態に係る機能構成を例示する図である。第2実施形態において、シーケンスデータ加工システム1は、編集部17を有する。編集部17は、ユーザーからの指示に応じてシーケンスデータを編集する。ユーザーからの指示は、UI部15を介して入力される。
3. 3. Third Embodiment FIG. 12 is a diagram illustrating a functional configuration according to a third embodiment of the sequence data processing system 1. In the second embodiment, the sequence data processing system 1 has an editorial unit 17. The editorial unit 17 edits the sequence data according to an instruction from the user. The instruction from the user is input via the UI unit 15.

図13は、シーケンスデータ加工システム1の第3実施形態に係る動作(シーケンスデータ加工方法)を例示する図である。ステップS7において、編集部17は、フィルター部16によりフィルター処理されたシーケンスデータを編集する。 FIG. 13 is a diagram illustrating an operation (sequence data processing method) according to the third embodiment of the sequence data processing system 1. In step S7, the editing unit 17 edits the sequence data filtered by the filtering unit 16.

図14は、シーケンスデータを編集するためのUI画面を例示する図である。このUI画面は、背景91及びピッチカーブ92を含む。背景91は、音信号から得られるピッチ尤度関数を示す。ピッチカーブ92は、フィルター処理後のシーケンスデータから得られる音高の時間変化を示す。ピッチカーブ92は、背景91として表示されるピッチ尤度関数と、横軸(時間軸)及び縦軸(周波数軸)における位置が合わせられた状態で表示される。UI部15は、ドラッグ&ドロップ、又はダイアログボックスにおけるパラメータ入力など周知の技術によりピッチカーブを編集するための指示を受け付ける。編集部17は、UI部15を介して入力された指示に応じてシーケンスデータを編集する。 FIG. 14 is a diagram illustrating a UI screen for editing sequence data. This UI screen includes a background 91 and a pitch curve 92. The background 91 shows a pitch likelihood function obtained from a sound signal. The pitch curve 92 shows the time change of the pitch obtained from the sequence data after the filtering. The pitch curve 92 is displayed in a state where the pitch likelihood function displayed as the background 91 and the positions on the horizontal axis (time axis) and the vertical axis (frequency axis) are aligned. The UI unit 15 receives instructions for editing the pitch curve by a well-known technique such as drag and drop or parameter input in a dialog box. The editing unit 17 edits the sequence data according to the instruction input via the UI unit 15.

再び図13を参照して説明する。ステップS8において、出力部14は、編集部17により編集されたシーケンスデータを出力する。出力処理の詳細は図3のステップS4と同様である。この例によれば、ピッチ尤度関数を視覚的に確認しながら、ピッチ尤度関数に合わせてピッチカーブ(シーケンスデータ)を編集(修正)することができる。なお、ここでは第2実施形態のシーケンスデータ加工システム1に対し編集部17を追加した例を説明したが、第1実施形態のシーケンスデータ加工システム1に対し編集部17が追加されてもよい。 This will be described again with reference to FIG. In step S8, the output unit 14 outputs the sequence data edited by the editorial unit 17. The details of the output process are the same as in step S4 of FIG. According to this example, the pitch curve (sequence data) can be edited (corrected) according to the pitch likelihood function while visually confirming the pitch likelihood function. Although the example in which the editing unit 17 is added to the sequence data processing system 1 of the second embodiment has been described here, the editing unit 17 may be added to the sequence data processing system 1 of the first embodiment.

4.変形例
本発明は上述の第1〜第3実施形態に限定されるものではなく、種々の変形実施が可能である。上述の実施形態のうち2つ以上のものが組み合わせて用いられてもよい。また、上述の実施形態のそれぞれ、又は2つ以上の組み合わせに対し、以下の変形例のうち少なくとも1つが適用されてもよい。
4. Modifications The present invention is not limited to the above-mentioned first to third embodiments, and various modifications can be carried out. Two or more of the above embodiments may be used in combination. In addition, at least one of the following modifications may be applied to each of the above-described embodiments or a combination of two or more.

加工部13による加工処理においてシーケンスデータに付加される情報は、ピッチベンドイベントすなわち音高の変化を示す情報に限定されない。音高の変化を示す情報に代えて、又は加えて、音高以外のパラメータの変化を示す情報がシーケンスデータに付加されてもよい。一例において、加工部13は、音量の変化を示す情報を付加してもよい。この場合、加工部13は、ピッチ尤度関数を用い、ノート毎に平均のパワーを計算する。加工部13は、こうして得られたパワーをシーケンスデータの書式に従った情報(例えばMIDIにおけるベロシティイベント)に変換し、この情報をシーケンスデータに付加する。この例によれば、音楽表現としての音量の変化(ダイナミクス)をシーケンスデータに付加することができる。 The information added to the sequence data in the processing by the processing unit 13 is not limited to the pitch bend event, that is, the information indicating the change in pitch. In addition to or in addition to the information indicating the change in pitch, information indicating the change in parameters other than pitch may be added to the sequence data. In one example, the processing unit 13 may add information indicating a change in volume. In this case, the processing unit 13 uses the pitch likelihood function to calculate the average power for each note. The processing unit 13 converts the power thus obtained into information according to the format of the sequence data (for example, a velocity event in MIDI), and adds this information to the sequence data. According to this example, a change in volume (dynamics) as a musical expression can be added to the sequence data.

加工部13は、いわゆるスコアアライメントの技術を用いて、シーケンスデータ及び音信号の時間軸上の位置を合わせてもよい。スコアアライメントの技術は、例えば、特開2015−79183号公報に記載されている。すなわち、加工部13は、スコアアライメントの技術を用い、シーケンスデータにおいて発音タイミング及び終音タイミング(例えばMIDIにおけるノートオンイベント及びノートオフイベントのタイミング)を調整する。この例によれば、音楽表現としてのタイミングのずれ(いわゆるタメ、ノリ、又はグルーブ)を示す情報をシーケンスデータに付加することができる。 The processing unit 13 may align the positions of the sequence data and the sound signal on the time axis by using a so-called score alignment technique. The technique of score alignment is described in, for example, Japanese Patent Application Laid-Open No. 2015-79183. That is, the processing unit 13 adjusts the sounding timing and the final sound timing (for example, the timing of the note-on event and the note-off event in MIDI) in the sequence data by using the score alignment technique. According to this example, information indicating a timing shift (so-called tame, glue, or groove) as a musical expression can be added to the sequence data.

シーケンスデータと音信号とのマッチングを取る方法は、ピッチ尤度関数を用いるものに限定されない。例えば、ピッチ尤度関数に代わりパワースペクトルが用いられてもよい。パワースペクトルは、音信号をフレームに区切り、各フレームにおけるパワーを周波数毎に計算したものである。 The method of matching the sequence data and the sound signal is not limited to the one using the pitch likelihood function. For example, a power spectrum may be used instead of the pitch likelihood function. The power spectrum is obtained by dividing the sound signal into frames and calculating the power in each frame for each frequency.

音信号は楽曲の演奏音を含むものに限定されず、また、シーケンスデータはミュージックシーケンサーにおいてその楽器の音を出力するためのデータ、又は自動演奏楽器において演奏を行うためのデータに限定されない。音信号は、例えば、朗読又は話し声であってもよいし、シーケンスデータは照明装置を制御するためのデータであってもよい。 The sound signal is not limited to the data including the performance sound of the music, and the sequence data is not limited to the data for outputting the sound of the musical instrument in the music sequencer or the data for performing the performance in the automatic musical instrument. The sound signal may be, for example, reading or speaking, and the sequence data may be data for controlling the lighting device.

データ加工システム1のハードウェア構成は、図2で例示したものに限定されない。要求される機能を実現できるものであれば、シーケンスデータ加工システム1はどのようなハードウェア構成を有していてもよい。例えば、複数の情報処理装置が協働してデータ加工システム1として機能してもよい。この場合において、複数の情報処理装置がサーバ/クライアントシステムを構成し、シーケンスデータ加工システム1の機能の一部がネットワーク上のサーバに実装されてもよい。 The hardware configuration of the data processing system 1 is not limited to that illustrated in FIG. The sequence data processing system 1 may have any hardware configuration as long as it can realize the required functions. For example, a plurality of information processing devices may cooperate to function as the data processing system 1. In this case, a plurality of information processing devices may form a server / client system, and some of the functions of the sequence data processing system 1 may be implemented on a server on the network.

情報処理装置10において実行されるプログラムは、光ディスク、磁気ディスク、半導体メモリーなどの記憶媒体により提供されてもよいし、インターネット等の通信回線を介してダウンロードされてもよい。また、このプログラムは、図3のすべてのステップを備える必要はない。これらのステップの一部が省略されてもよい。 The program executed in the information processing apparatus 10 may be provided by a storage medium such as an optical disk, a magnetic disk, or a semiconductor memory, or may be downloaded via a communication line such as the Internet. Also, this program does not have to include all the steps of FIG. Some of these steps may be omitted.

1…シーケンスデータ加工システム、2…処理装置、10…情報処理装置、11…シーケンス入力部、12…音入力部、13…加工部、14…出力部、15…UI部、16…フィルター部、91…背景、92…ピッチカーブ、101…CPU、102…メモリー、103…ストレージ、104…通信IF、105…入出力IF、106…入力装置、107…ディスプレイ、108…スピーカ 1 ... Sequence data processing system, 2 ... Processing device, 10 ... Information processing device, 11 ... Sequence input unit, 12 ... Sound input unit, 13 ... Processing unit, 14 ... Output unit, 15 ... UI unit, 16 ... Filter unit, 91 ... Background, 92 ... Pitch curve, 101 ... CPU, 102 ... Memory, 103 ... Storage, 104 ... Communication IF, 105 ... Input / output IF, 106 ... Input device, 107 ... Display, 108 ... Speaker

Claims (11)

所定の楽曲のシーケンスデータの少なくとも一部を、前記所定の楽曲の音信号に基づいて加工するステップと、
前記加工されたシーケンスデータをフィルター処理するステップ
を有するシーケンスデータ加工方法。
A step of processing at least a part of the sequence data of a predetermined musical piece based on the sound signal of the predetermined musical piece, and
A step of filtering the processed sequence data was
Sequence data processing method having .
前記フィルター処理は、シーケンスデータにおける音高の変化を抑制する処理である
請求項に記載のシーケンスデータ加工方法。
The sequence data processing method according to claim 1 , wherein the filter processing is a process of suppressing a change in pitch in sequence data.
前記フィルター処理は、音長がしきい値より短い音に対してはシーケンスデータの加工を抑制する処理である
請求項に記載のシーケンスデータ加工方法。
The sequence data processing method according to claim 1 , wherein the filter processing is a process of suppressing processing of sequence data for sounds having a sound length shorter than a threshold value.
前記フィルター処理は、複音に対してはシーケンスデータの加工を抑制する処理である
請求項に記載のシーケンスデータ加工方法。
The sequence data processing method according to claim 1 , wherein the filter processing is a process of suppressing processing of sequence data for multiple sounds.
所定の楽曲のシーケンスデータの少なくとも一部を、前記所定の楽曲の音信号に基づいて加工するステップと、
前記加工されたシーケンスデータの編集の指示を受け付けるステップと、
前記指示に応じて前記シーケンスデータを編集するステップと
を有するシーケンスデータ加工方法。
A step of processing at least a part of the sequence data of a predetermined musical piece based on the sound signal of the predetermined musical piece, and
A step of receiving an instruction to edit the processed sequence data, and
With the step of editing the sequence data according to the instruction
Sequence data processing method having .
所定の楽曲のシーケンスデータの少なくとも一部を、前記所定の楽曲の、AD変換器を介して入力された音信号に基づいて加工するステップを有し、
前記加工するステップが、
前記音信号から主なピッチ成分の候補を抽出するステップと、
前記音信号と前記シーケンスデータとのマッチングを取るステップと、
前記マッチングに基づいて、前記音信号から主なピッチの動きを前記シーケンスデータに転写するステップと
を含む、シーケンスデータ加工方法。
It has a step of processing at least a part of the sequence data of a predetermined musical piece based on the sound signal of the predetermined musical piece input via the AD converter.
The processing step is
The step of extracting the main pitch component candidates from the sound signal and
The step of matching the sound signal with the sequence data,
Based on the matching, the step of transferring the movement of the main pitch from the sound signal to the sequence data
Sequence data processing methods , including .
前記音信号は、楽器の演奏音を含み、
前記シーケンスデータは、楽器を演奏するためのシーケンスを示す
請求項1乃至6のいずれか一項に記載のシーケンスデータ加工方法。
The sound signal includes the performance sound of the musical instrument.
The sequence data processing method according to any one of claims 1 to 6, wherein the sequence data indicates a sequence for playing a musical instrument.
前記シーケンスデータは、音高を示す情報を含み、
前記シーケンスデータと前記音信号とのマッチングをするステップを有し、
前記マッチングの結果に応じて前記シーケンスデータを加工する
請求項1乃至7のいずれか一項に記載のシーケンスデータ加工方法。
The sequence data includes information indicating pitch.
It has a step of matching the sequence data with the sound signal.
The sequence data processing method according to any one of claims 1 to 7, wherein the sequence data is processed according to the result of the matching.
所定の楽曲のシーケンスデータの少なくとも一部を、前記所定の楽曲の音信号に基づいて加工する加工部と、
前記加工されたシーケンスデータをフィルター処理するフィルター部と
を有する情報処理装置。
At least part of the sequence data of a predetermined musical composition, and pressurizing coated portion you processing based on the sound signal of the predetermined piece of music,
An information processing device having a filter unit for filtering the processed sequence data .
所定の楽曲のシーケンスデータの少なくとも一部を、前記所定の楽曲の音信号に基づいて加工する加工部と、A processing unit that processes at least a part of the sequence data of a predetermined musical piece based on the sound signal of the predetermined musical piece, and
前記加工されたシーケンスデータの編集の指示を受け付けるUI部と、A UI unit that accepts instructions for editing the processed sequence data,
前記指示に応じて前記シーケンスデータを編集する編集部とWith an editorial department that edits the sequence data according to the instructions
を有する情報処理装置。Information processing device with.
所定の楽曲のシーケンスデータの少なくとも一部を、前記所定の楽曲の、AD変換器を介して入力された音信号に基づいて加工する加工部を有し、It has a processing unit that processes at least a part of the sequence data of a predetermined musical piece based on the sound signal of the predetermined musical piece input via the AD converter.
前記加工部が、The processed part
前記音信号から主なピッチ成分の候補を抽出し、Candidates for the main pitch components are extracted from the sound signal,
前記音信号と前記シーケンスデータとのマッチングを取り、Matching the sound signal with the sequence data
前記マッチングに基づいて、前記音信号から主なピッチの動きを前記シーケンスデータに転写するBased on the matching, the movement of the main pitch is transferred from the sound signal to the sequence data.
情報処理装置。Information processing device.
JP2017052951A 2017-03-17 2017-03-17 Sequence data processing method and information processing equipment Active JP6819384B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017052951A JP6819384B2 (en) 2017-03-17 2017-03-17 Sequence data processing method and information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017052951A JP6819384B2 (en) 2017-03-17 2017-03-17 Sequence data processing method and information processing equipment

Publications (2)

Publication Number Publication Date
JP2018155937A JP2018155937A (en) 2018-10-04
JP6819384B2 true JP6819384B2 (en) 2021-01-27

Family

ID=63716575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017052951A Active JP6819384B2 (en) 2017-03-17 2017-03-17 Sequence data processing method and information processing equipment

Country Status (1)

Country Link
JP (1) JP6819384B2 (en)

Also Published As

Publication number Publication date
JP2018155937A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
JP2020003537A (en) Audio extraction device, learning device, karaoke device, audio extraction method, learning method and program
JP5228432B2 (en) Segment search apparatus and program
US20080160943A1 (en) Method and apparatus to post-process an audio signal
JP6784022B2 (en) Speech synthesis method, speech synthesis control method, speech synthesis device, speech synthesis control device and program
US8253006B2 (en) Method and apparatus to automatically match keys between music being reproduced and music being performed and audio reproduction system employing the same
JP4959861B1 (en) Signal processing method, signal processing apparatus, reproduction apparatus, and program
JP2005157363A (en) Method of and apparatus for enhancing dialog utilizing formant region
JP6819384B2 (en) Sequence data processing method and information processing equipment
JP2008216486A (en) Music reproduction system
Nakamura et al. Timbre replacement of harmonic and drum components for music audio signals
CN116156214A (en) Video tuning method and device, electronic equipment and storage medium
JP5958378B2 (en) Audio signal processing apparatus, control method and program for audio signal processing apparatus
JP4563418B2 (en) Audio processing apparatus, audio processing method, and program
JP2023013684A (en) Singing voice quality conversion program and singing voice quality conversion device
JP6798253B2 (en) Signal processing method and signal processing device
WO2024219207A1 (en) Information processing device and method, and program
JP6089651B2 (en) Sound processing apparatus, sound processing apparatus control method, and program
JP4486051B2 (en) Karaoke BGM performance system
WO2023062865A1 (en) Information processing apparatus, method, and program
JP7461090B1 (en) Audio processing device, audio processing method, and program
JP4735221B2 (en) Performance data editing apparatus and program
US20210286584A1 (en) Reproduction device and reproduction method
JP2008268358A (en) Karaoke device, singing evaluation method and program
JP2017173504A (en) Musical opus editing device
JP2005106989A (en) Musical score-corresponding data generating device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R151 Written notification of patent or utility model registration

Ref document number: 6819384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350