JP2023146600A - Performance data conversion device and performance data conversion program - Google Patents

Performance data conversion device and performance data conversion program Download PDF

Info

Publication number
JP2023146600A
JP2023146600A JP2022053855A JP2022053855A JP2023146600A JP 2023146600 A JP2023146600 A JP 2023146600A JP 2022053855 A JP2022053855 A JP 2022053855A JP 2022053855 A JP2022053855 A JP 2022053855A JP 2023146600 A JP2023146600 A JP 2023146600A
Authority
JP
Japan
Prior art keywords
performance data
beat
information
timing information
conversion device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022053855A
Other languages
Japanese (ja)
Inventor
雅則 勝田
Masanori Katsuta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP2022053855A priority Critical patent/JP2023146600A/en
Publication of JP2023146600A publication Critical patent/JP2023146600A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

To enable easy setting of tempo information or sound intensity of performance data.SOLUTION: A performance data conversion device is provided, comprising input means for inputting timing information for each beat of first performance data according to manipulation by an operator, and conversion means for converting the first performance data into second performance data according to the timing information of each beat, where the conversion means derives tempo information of each beat of the second performance data on the basis of the timing information of each beat and tempo information of the first performance data.SELECTED DRAWING: Figure 3

Description

本発明は、演奏データ変換装置及び演奏データ変換プログラムに関する。 The present invention relates to a performance data conversion device and a performance data conversion program.

特許文献1には、外部イベントに従って、曲データを自動演奏する自動演奏装置が記載されている。曲データは、所定の区間に区分されている。自動演奏装置は、自動演奏時には、外部イベントに応じて、外部イベントに対応する区間の自動演奏が進行するとともに、外部イベントの間隔に基づいて、自動演奏のテンポを設定する。 Patent Document 1 describes an automatic performance device that automatically plays music data according to an external event. The song data is divided into predetermined sections. During automatic performance, the automatic performance device proceeds with automatic performance in a section corresponding to the external event in response to an external event, and also sets the tempo of the automatic performance based on the interval of the external event.

特開2003-15647号公報Japanese Patent Application Publication No. 2003-15647

楽曲の演奏データを作成及び編集する方法として、楽曲の楽譜を見ながら、音符などの音楽記号をコンピュータの画面上の五線紙に貼り付けたり、楽譜を画像認識したりすることにより、楽譜データを作成し、その楽譜データを演奏データに変換することが行われている。 One way to create and edit performance data for a song is to paste musical symbols such as notes onto music paper on a computer screen while looking at the score, or to perform image recognition of the score. is created and the musical score data is converted into performance data.

このような演奏データ作成方法の場合、テンポや強弱の抑揚の付いた曲想豊かで自然な演奏データにするためには、テンポ記号や強弱記号を駆使し、さらにテンポ速度や強弱量を繊細に調整する必要がある。そのために、編集作業と再生作業とを試行錯誤しながら何度も行ったり来たりという具合に、非常に面倒で手間のかかる非効率な作業を強いられることになる。また、出来上がった演奏データを再生しても、聴感上の不自然さは否めない。しかも、そのような抑揚を付ける編集作業は、初心者にはハードルが高すぎる。たとえ音楽的センスのある人であっても、そのセンスを演奏データに反映するとなると、大変な作業である。誰でも、感性の赴くまま、もっと簡単に演奏データに抑揚が付けられる方法が望まれる。 In the case of this method of creating performance data, in order to create a rich and natural performance data with tempo and dynamic intonation, it is necessary to make full use of tempo symbols and dynamic symbols, and also delicately adjust the tempo speed and amount of dynamics. There is a need to. For this reason, the user is forced to perform extremely troublesome, time-consuming, and inefficient work, such as going back and forth between editing work and playback work many times through trial and error. Moreover, even if the completed performance data is played back, it cannot be denied that the sound feels unnatural. Moreover, editing to create such intonation is too difficult for beginners. Even if a person has musical taste, it is a difficult task to reflect that sense in performance data. There is a need for a method in which anyone can more easily add intonation to performance data according to their sensibilities.

本発明の目的は、演奏データのテンポ情報又は発音強さを簡便に設定できるようにすることである。 An object of the present invention is to enable easy setting of tempo information or sound intensity of performance data.

演奏データ変換装置は、操作者の操作に基づき、第1の演奏データの各拍のタイミング情報を入力する入力手段と、前記各拍のタイミング情報を基に、前記第1の演奏データを第2の演奏データに変換する変換手段とを有し、前記変換手段は、前記各拍のタイミング情報と前記第1の演奏データのテンポ情報を基に、前記第2の演奏データの各拍のテンポ情報を算出する。 The performance data converting device includes an input means for inputting timing information of each beat of the first performance data based on an operation by an operator, and converting the first performance data into a second performance data based on the timing information of each beat. , and the converting means converts the tempo information of each beat of the second performance data based on the timing information of each beat and the tempo information of the first performance data. Calculate.

また、演奏データ変換装置は、操作者の操作に基づき、第1の演奏データの各拍の楽音の発音強さを入力する入力手段と、前記各拍の楽音の発音強さを基に、前記第1の演奏データを第2の演奏データに変換する変換手段とを有し、前記変換手段は、前記各拍の楽音の発音強さを基に、前記第2の演奏データの各楽音の発音強さを決定する。 The performance data converting device also includes an input means for inputting the sounding strength of the musical tone of each beat of the first performance data based on the operation of the operator; converting means for converting the first performance data into second performance data, and the converting means generates each musical tone of the second performance data based on the sounding strength of the musical tone of each beat. Determine strength.

本発明によれば、演奏データのテンポ情報又は発音強さを簡便に設定することができる。 According to the present invention, the tempo information or sound intensity of performance data can be easily set.

図1は、演奏データ変換装置のハードウェア構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of the hardware configuration of a performance data conversion device. 図2は、演奏データ変換装置の機能構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of the performance data conversion device. 図3は、ピアノロールの表示例を示す図である。FIG. 3 is a diagram showing a display example of a piano roll. 図4は、拍情報ウィンドウの表示例を示す図である。FIG. 4 is a diagram showing a display example of the beat information window. 図5は、変換前の演奏データの例を示す図である。FIG. 5 is a diagram showing an example of performance data before conversion. 図6は、タップエリアのタップ操作により入力されたタイミング情報及びベロシティの例を示す図である。FIG. 6 is a diagram illustrating an example of timing information and velocity input by a tap operation on a tap area. 図7は、変換後の演奏データの例を示す図である。FIG. 7 is a diagram showing an example of performance data after conversion.

図1は、本実施形態による演奏データ変換装置100のハードウェア構成例を示すブロック図である。演奏データ変換装置100のハードウェアは、例えば、タブレット、スマートフォン又はパーソナルコンピュータ等の汎用情報処理装置である。 FIG. 1 is a block diagram showing an example of the hardware configuration of a performance data conversion device 100 according to this embodiment. The hardware of the performance data conversion device 100 is, for example, a general-purpose information processing device such as a tablet, a smartphone, or a personal computer.

演奏データ変換装置100は、CPU102、ROM103、RAM104、表示装置105、タッチパネル107、音源部108、通信インタフェース109、VRAM110、スキャン回路112、バス113、サウンドシステム114及び外部機器115を有する。表示装置105は、例えば液晶ディスプレイであり、VRAM110を介して、バス113に接続される。タッチパネル107は、表示装置105上に設けられ、スキャン回路112を介して、バス113に接続される。なお、タッチパネル107の代わりに、マウス及びキーボードを設けてもよい。 The performance data conversion device 100 includes a CPU 102, a ROM 103, a RAM 104, a display device 105, a touch panel 107, a sound source section 108, a communication interface 109, a VRAM 110, a scan circuit 112, a bus 113, a sound system 114, and an external device 115. Display device 105 is, for example, a liquid crystal display, and is connected to bus 113 via VRAM 110 . Touch panel 107 is provided on display device 105 and connected to bus 113 via scan circuit 112 . Note that a mouse and a keyboard may be provided instead of the touch panel 107.

ユーザは、タッチパネル107をタッチ操作することにより、指示を行うことができる。スキャン回路112は、タッチパネル107をタッチ操作した位置(座標)を検出し、バス113を介して、検出信号をCPU102に出力する。CPU102は、タッチパネル107のタッチ操作、タップ操作及びダブルタップ操作等を検出することができる。 The user can give instructions by touching the touch panel 107. The scan circuit 112 detects the position (coordinates) of a touch operation on the touch panel 107 and outputs a detection signal to the CPU 102 via the bus 113 . The CPU 102 can detect a touch operation, a tap operation, a double tap operation, etc. on the touch panel 107.

外部機器115は、例えば、外部記憶装置、外部コンピュータ、プリンタ又はMIDI鍵盤楽器等である。外部記憶装置は、例えば、ハードディスク、CD-ROM、MOディスク、DVD又はメモリカード等である。通信インタフェース109は、USB、LAN、無線通信ネットワーク、インターネット若しくは電話回線等の通信ネットワーク、又はMIDI用ネットワークに接続されるインタフェースであり、外部機器115に接続される。演奏データ変換装置100は、通信インタフェース109を介して、外部機器115から演奏データを入力し、VRAM110を介して、演奏データを表示装置105に表示することができる。 The external device 115 is, for example, an external storage device, an external computer, a printer, or a MIDI keyboard instrument. The external storage device is, for example, a hard disk, CD-ROM, MO disk, DVD, or memory card. The communication interface 109 is an interface connected to a communication network such as a USB, a LAN, a wireless communication network, the Internet or a telephone line, or a MIDI network, and is connected to the external device 115. The performance data conversion device 100 can input performance data from an external device 115 via the communication interface 109 and display the performance data on the display device 105 via the VRAM 110.

MIDI鍵盤楽器は、例えば、Bluetooth又はUSBの通信インタフェース109を介して、バス113に接続される。MIDI鍵盤楽器は、操作者の押鍵操作に応じて、押鍵情報と離鍵情報を出力する。押鍵情報は、押鍵の鍵番号と、押鍵操作時刻と、押鍵強さを含む。 The MIDI keyboard instrument is connected to the bus 113 via a communication interface 109, such as Bluetooth or USB. A MIDI keyboard instrument outputs key press information and key release information in response to a key press operation by an operator. The key press information includes the key number of the pressed key, the key press operation time, and the key press strength.

CPU102は、外部機器115のハードディスクに記憶されているプログラムをRAM104に展開し、RAM104に展開されたプログラムを実行することにより、演奏データ変換装置100の全体を制御する。外部機器115のハードディスクは、CPU102が実行する演奏データ変換プログラムと、演奏データを記憶する。RAM104は、CPU102の処理に使用される情報を一時記憶する。 The CPU 102 loads a program stored in the hard disk of the external device 115 into the RAM 104, and controls the entire performance data conversion device 100 by executing the program loaded into the RAM 104. The hard disk of the external device 115 stores a performance data conversion program executed by the CPU 102 and performance data. The RAM 104 temporarily stores information used for processing by the CPU 102.

表示装置105は、例えば、液晶ディスプレイである。表示装置105は、演奏データ等を表示する。 Display device 105 is, for example, a liquid crystal display. The display device 105 displays performance data and the like.

音源部108は、音源としてのソフトウェアや効果付与のためのDSPを含み、演奏データに対応する楽音を発音させるためのサウンド信号を生成する。音源部108は、演奏データを基に、サウンド信号をサウンドシステム114に出力する。演奏データは、テンポ情報と、拍子情報と、複数のノートデータを含む。ノートデータは、ノートナンバ、ステップタイム、ゲートタイム及びベロシティを含む。ノートナンバは、音高である。ステップタイムは、曲の始めを基点とする発音開始時刻を示す。ゲートタイムは、発音の持続時間である。発音終了時刻は、ステップタイムとゲートタイムの合計時間である。ベロシティは、楽音の発音強さである。また、音源部108は、メトロノームモードがオンに設定されている場合には、演奏データのテンポ情報と拍子情報に基づくメトロノーム音のサウンド信号をサウンドシステム114に出力する。サウンドシステム114は、D/A変換器、アンプ及びスピーカを有し、音源部108により生成されたサウンド信号を基に、演奏データに対応する演奏を発音することができる。 The sound source section 108 includes software as a sound source and a DSP for adding effects, and generates a sound signal for generating musical tones corresponding to performance data. The sound source section 108 outputs a sound signal to the sound system 114 based on the performance data. The performance data includes tempo information, time signature information, and multiple note data. Note data includes note number, step time, gate time, and velocity. The note number is the pitch. The step time indicates the start time of sound generation based on the beginning of the song. Gate time is the duration of pronunciation. The end time of sound generation is the total time of step time and gate time. Velocity is the pronunciation strength of a musical note. Further, when the metronome mode is set to ON, the sound source section 108 outputs a metronome sound sound signal to the sound system 114 based on the tempo information and time signature information of the performance data. The sound system 114 includes a D/A converter, an amplifier, and a speaker, and can produce a performance corresponding to the performance data based on the sound signal generated by the sound source section 108.

図2は、演奏データ変換装置100の機能構成例を示すブロック図である。演奏データ変換装置100は、入力部201と、変換部202と、再生部203と、表示制御部204を有する。演奏データ変換装置100は、CPU102が演奏データ変換プログラムを実行することにより、入力部201と変換部202と再生部203と表示制御部204の機能を実現する。 FIG. 2 is a block diagram showing an example of the functional configuration of the performance data conversion device 100. The performance data conversion device 100 includes an input section 201, a conversion section 202, a playback section 203, and a display control section 204. The performance data conversion device 100 realizes the functions of the input section 201, conversion section 202, playback section 203, and display control section 204 by the CPU 102 executing a performance data conversion program.

演奏データ変換装置100は、操作者が音符などの音楽記号を演奏データ変換装置100の画面上の五線紙に貼り付けたり、楽譜を画像認識したりすることにより、楽譜データを生成する。そして、演奏データ変換装置100は、その楽譜データを演奏データに変換し、その演奏データを外部機器115の外部記憶装置に記録する。このような演奏データは、テンポ及び強弱が単調になりがちである。そこで、演奏データ変換装置100は、テンポや強弱の抑揚の付いた曲想豊かで自然な演奏データにするため、操作者の操作に応じて、テンポや強弱を変更する。以下、その方法を説明する。 The performance data conversion device 100 generates musical score data when an operator pastes musical symbols such as musical notes onto musical staff on the screen of the performance data conversion device 100 or performs image recognition of the musical score. Then, the performance data converting device 100 converts the musical score data into performance data, and records the performance data in the external storage device of the external device 115. Such performance data tends to have a monotonous tempo and dynamics. Therefore, the performance data converting device 100 changes the tempo and dynamics in accordance with the operator's operations in order to create musical performance data that is rich and natural with tempo and dynamic intonation. The method will be explained below.

CPU102は、操作者のタッチパネル107の操作に応じて、楽曲を選択し、選択した楽曲に対応する演奏データを外部記憶装置から読み出し、その演奏データを基に、演奏データの拍毎のテンポとベロシティ(発音強さ)を設定し、演奏データの各楽音の図形を、図3のピアノロールとして表示装置105に表示する。 The CPU 102 selects a song in response to the operator's operation on the touch panel 107, reads performance data corresponding to the selected song from the external storage device, and calculates the tempo and velocity of each beat of the performance data based on the performance data. (sounding strength) is set, and the graphics of each tone of the performance data are displayed on the display device 105 as a piano roll in FIG.

図3は、本実施形態によるピアノロールの表示例を示す図である。CPU102は、外部記憶装置に記憶されている演奏データを読み出し、その演奏データに対応する図3のピアノロールを表示装置105に表示するように制御する。 FIG. 3 is a diagram showing a display example of a piano roll according to the present embodiment. The CPU 102 reads the performance data stored in the external storage device, and controls the display device 105 to display the piano roll of FIG. 3 corresponding to the performance data.

図3のピアノロールは、表示画面の横方向が演奏データの時間軸であり、表示画面の縦方向が鍵盤楽器の音高である。演奏データの各楽音は、矩形図形で表される。楽音の矩形図形は、左辺が発音開始時刻を示し、右辺が発音終了時刻を示す。演奏データの再生位置301は、ソングポインタであり、縦ラインで示される。CPU102は、操作者のタッチパネル107の操作に応じて、演奏データの再生経過時刻を進め、各楽音の矩形図形が右から左へ向かって移動するように、スクロール表示する。楽音の矩形図形の左辺が再生位置301を通過すると、楽音の発音が開始される。楽音の矩形図形の右辺が再生位置301を通過すると、楽音の発音が終了する。演奏データの再生は、図3の再生開始ボタン322をタップ操作することにより行われる。拍情報302は、演奏データの拍子の各拍のタイミングとして、表示される。 In the piano roll of FIG. 3, the horizontal direction of the display screen is the time axis of the performance data, and the vertical direction of the display screen is the pitch of the keyboard instrument. Each tone of the performance data is represented by a rectangular figure. In the rectangular figure of a musical tone, the left side indicates the start time of the sound, and the right side shows the end time of the sound. The playback position 301 of the performance data is a song pointer and is indicated by a vertical line. The CPU 102 advances the playback elapsed time of the performance data in response to the operator's operation on the touch panel 107, and scrolls the rectangular figures of each musical tone so that they move from right to left. When the left side of the rectangular figure of the musical tone passes the reproduction position 301, the generation of the musical tone starts. When the right side of the rectangular figure of the musical tone passes through the reproduction position 301, the generation of the musical tone ends. Playback of the performance data is performed by tapping the playback start button 322 in FIG. The beat information 302 is displayed as the timing of each beat of the time signature of the performance data.

タッチパネル107は、図3のピアノロールを表示する表示装置105上に設けられる。操作者は、図3のピアノロール上のタッチパネル107を操作することができる。タッチパネル107上の左右方向のスワイプ操作が行われると、CPU102は、図3のピアノロールを左右方向にスクロール表示する。また、タッチパネル107上の左右方向のピンチ操作が行われると、CPU102は、図3のピアノロールを時間軸方向にズーム表示する。 A touch panel 107 is provided on the display device 105 that displays the piano roll of FIG. The operator can operate the touch panel 107 on the piano roll in FIG. When a swipe operation in the left and right directions on the touch panel 107 is performed, the CPU 102 scrolls the piano roll of FIG. 3 in the left and right directions. Furthermore, when a pinch operation is performed in the left and right direction on the touch panel 107, the CPU 102 zooms and displays the piano roll of FIG. 3 in the time axis direction.

図3のタップ入力モードボタン311がタップ操作されると、CPU102は、タップエリア303を表示し、タップエリア303のタップ操作に基づき、タイミング情報及びベロシティ(発音強さ)の入力及び設定を行う。CPU102は、タップエリア303のタップタイミングに基づき、演奏データの各拍のタイミング情報を入力し、タップエリア303のタップ強度に基づきベロシティを入力する。強くタップするほどベロシティを大きくする。ここでタップ強度は、タップ速度(タップオンからオフまでの時間)なども含まれる。あるいは、タップ位置に基づきベロシティを入力するようにしても良い。例えば、タップエリア303内のタップ位置が上になるほど、ベロシティが大きくなり、タップエリア303内のタップ位置が下になるほど、ベロシティが小さくなる。それ以外にも、スワイプ(距離、方向、速度など)、その他タッチジェスチャの違いなどによりベロシティの大きさを入力してもよい。要するにタッチ操作の違いによりベロシティの大きさをコントロール可能なものであれば上記に限らない。これにより、CPU102は、操作者の1つのタップ操作に基づき、演奏データの各拍のタイミング情報と各拍の楽音のベロシティの両方を入力することができる。 When the tap input mode button 311 in FIG. 3 is tapped, the CPU 102 displays the tap area 303, and inputs and sets timing information and velocity (pronunciation strength) based on the tap operation on the tap area 303. The CPU 102 inputs timing information for each beat of the performance data based on the tap timing of the tap area 303, and inputs velocity based on the tap intensity of the tap area 303. The harder you tap, the higher the velocity. Here, the tap strength also includes the tap speed (time from tap on to tap off). Alternatively, the velocity may be input based on the tap position. For example, the higher the tap position in the tap area 303 is, the higher the velocity is, and the lower the tap position in the tap area 303 is, the lower the velocity is. In addition, the magnitude of velocity may be input based on swipe (distance, direction, speed, etc.) or other touch gestures. In short, it is not limited to the above as long as the magnitude of velocity can be controlled by different touch operations. Thereby, the CPU 102 can input both the timing information of each beat of the performance data and the velocity of the musical tone of each beat based on one tap operation by the operator.

図3のタップ入力モードボタン311がタップ操作されていない場合、CPU102は、MIDI鍵盤楽器の押鍵操作に基づき、タイミング情報及びベロシティ(発音強さ)の入力を行う。CPU102は、MIDI鍵盤楽器の押鍵タイミングに基づき、演奏データの各拍のタイミング情報を入力し、MIDI鍵盤楽器の押鍵速度又は押鍵強さに基づき、演奏データの各拍の楽音のベロシティを入力する。これにより、CPU102は、操作者の1つの押鍵操作に基づき、演奏データの各拍のタイミング情報と各拍の楽音のベロシティの両方を入力することができる。 When the tap input mode button 311 in FIG. 3 is not tapped, the CPU 102 inputs timing information and velocity (sound strength) based on the key press operation of the MIDI keyboard instrument. The CPU 102 inputs the timing information of each beat of the performance data based on the key depression timing of the MIDI keyboard instrument, and calculates the velocity of the musical tone of each beat of the performance data based on the key depression speed or key depression strength of the MIDI keyboard instrument. input. Thereby, the CPU 102 can input both the timing information of each beat of the performance data and the velocity of the musical tone of each beat based on one key press operation by the operator.

以下、タップエリア303のタップ操作を例に説明するが、タップエリア303の操作の代わりに、MIDI鍵盤楽器の押鍵操作を行う場合も同様である。操作者は、演奏データの各拍の先頭に対応するタイミングで、タイミング情報及びベロシティを入力し、各拍のタイミング及びベロシティを指定する。 Hereinafter, a tap operation on the tap area 303 will be described as an example, but the same applies to a case where a key press operation on a MIDI keyboard instrument is performed instead of the operation on the tap area 303. The operator inputs timing information and velocity at a timing corresponding to the beginning of each beat of the performance data, and specifies the timing and velocity of each beat.

リアルタイム入力モードでは、CPU102は、タップエリア303の初回のタップ操作で演奏データの再生を開始し、再生時刻の経過に応じて、図3のピアノロールをスクロール表示し、タップエリア303のタップ操作に応じて、再生位置301の時刻に対応するタイミング情報及びベロシティの入力及び設定を行う。 In the real-time input mode, the CPU 102 starts playing the performance data with the first tap operation on the tap area 303, scrolls and displays the piano roll in FIG. Accordingly, timing information and velocity corresponding to the time of the playback position 301 are input and set.

演奏データの再生に伴い、楽音の矩形図形と拍情報302が右から左にスクロール表示される。再生位置301の表示位置は、固定である。操作者は、拍情報302の各々のタイミングを指定するために、タップエリア303のタップ操作を行う。この場合、再生位置301が拍情報302に到達する前にタップ操作する場合と、再生位置301が拍情報302に到達した後にタップ操作する場合がある。 As the performance data is played back, rectangular figures of musical tones and beat information 302 are displayed scrolling from right to left. The display position of the reproduction position 301 is fixed. The operator performs a tap operation on the tap area 303 in order to specify the timing of each piece of beat information 302. In this case, there are cases where the tap operation is performed before the playback position 301 reaches the beat information 302, and cases where the tap operation is performed after the playback position 301 reaches the beat information 302.

まず、再生位置301が拍情報302に到達する前にタップ操作する場合の再生方法を説明する。拍情報302は、拍の先頭時刻を示す。再生位置301が拍情報302に到達する前にタップエリア303のタップ操作が行われた場合には、CPU102は、再生位置301を次の拍情報302までスキップして演奏データを再生する。 First, a reproduction method in the case where a tap operation is performed before the reproduction position 301 reaches the beat information 302 will be described. Beat information 302 indicates the start time of the beat. If a tap operation is performed on the tap area 303 before the playback position 301 reaches the beat information 302, the CPU 102 skips the playback position 301 to the next beat information 302 and plays the performance data.

次に、再生位置301が拍情報302に到達した後にタップ操作する場合の再生方法を説明する。再生位置301が拍情報302に到達したときに、当該拍情報302に対応するタップエリア303のタップ操作が未だに行われていない場合には、CPU102は、演奏データの再生を停止し、その後、当該拍情報302に対応するタップエリア303のタップ操作が行われた場合には、演奏データの再生を再開する。 Next, a playback method when a tap operation is performed after the playback position 301 reaches the beat information 302 will be described. When the playback position 301 reaches the beat information 302, if no tap operation has been performed on the tap area 303 corresponding to the beat information 302, the CPU 102 stops playing the performance data, and then When a tap operation is performed on the tap area 303 corresponding to the beat information 302, reproduction of the performance data is restarted.

ステップ入力モードでは、CPU102は、演奏データを再生せず、操作者のスワイプ操作に基づき、図3のピアノロールをスクロール表示し、タップエリア303のタップ操作に応じて、再生位置301の時刻に対応するベロシティの入力を行う。 In the step input mode, the CPU 102 does not play back the performance data, but scrolls and displays the piano roll in FIG. Enter the velocity you want to use.

CPU102は、タップエリア303のタップ操作に応じて、演奏データの先頭から末尾まで、楽曲の各拍の先頭に応じたタイミングで、タイミング情報及びベロシティを入力する。 In response to a tap operation on the tap area 303, the CPU 102 inputs timing information and velocity from the beginning to the end of the performance data at a timing corresponding to the beginning of each beat of the music piece.

リアルタイム入力により、演奏データを自動再生しながら、タイミング情報及びベロシティをタップ入力してもよいし、ステップ入力により、手動スクロールで時間を進めたり戻したりしながら、ベロシティのみをタップ入力してもよい。 With real-time input, you can tap-input timing information and velocity while automatically playing the performance data, or with step input, you can tap-input only the velocity while manually scrolling the time forward or backward. .

再生位置301に最も近い時刻の拍情報302は、選択状態の拍情報となり、他の拍情報302とは異なる色で表示される。CPU102は、発音開始時刻が再生位置301に最も近い楽音の矩形図形304を、縁取り表示する。また、CPU102は、選択状態の拍情報302の時刻と同じ時刻の発音開始時刻の楽音の矩形図形304上に、●印を表示する。 The beat information 302 at the time closest to the playback position 301 becomes the selected beat information and is displayed in a different color from the other beat information 302. The CPU 102 displays the rectangular figure 304 of the musical tone whose sound generation start time is closest to the playback position 301 with an outline. Further, the CPU 102 displays a ● mark on the rectangular figure 304 of the musical tone whose sound generation start time is the same as the time of the beat information 302 in the selected state.

CPU102は、図3の拍情報表示ボタン323のタップ操作に応じて、拍情報表示オンと拍情報表示オフを切り替えることができる。拍情報表示オンの場合、CPU102は、図4の拍情報ウィンドウを表示する。拍情報表示オフの場合、CPU102は、図4の拍情報ウィンドウを表示しない。 The CPU 102 can switch the beat information display on and off in response to a tap operation on the beat information display button 323 in FIG. 3 . When the beat information display is on, the CPU 102 displays the beat information window shown in FIG. 4. When the beat information display is off, the CPU 102 does not display the beat information window of FIG. 4.

図4は、拍情報ウィンドウの表示例を示す図である。CPU102は、図3の選択状態の拍情報302の内容を、図4の拍情報ウィンドウに表示する。拍情報302の各々は、演奏データの各拍に対応した情報であり、テンポ401と、ベロシティ402と、拍子405を有する。演奏データの先頭から末尾にわたるすべての拍情報302は、演奏データの読み込み時にCPU102によって自動生成される情報である。因みに、図4の再生速度403とメトロノーム音の音量404は、拍情報とは関係しない再生に関する設定値であるが、必要に応じてすばやく操作できるように拍情報ウィンドウ内に便宜上配置している。 FIG. 4 is a diagram showing a display example of the beat information window. The CPU 102 displays the contents of the beat information 302 in the selected state in FIG. 3 in the beat information window in FIG. 4. Each beat information 302 is information corresponding to each beat of the performance data, and has a tempo 401, a velocity 402, and a time signature 405. All the beat information 302 from the beginning to the end of the performance data is information automatically generated by the CPU 102 when reading the performance data. Incidentally, the playback speed 403 and metronome sound volume 404 in FIG. 4 are setting values related to playback that are not related to beat information, but are conveniently placed in the beat information window so that they can be quickly operated as needed.

演奏データは、テンポ401と、ベロシティ402と、拍子405を有する。テンポ401と拍子405は、例えば、演奏データの先頭と、それらが変化したときに設けられる。ベロシティ402は、演奏データ内の各ノートデータに設けられる。 The performance data has a tempo 401, a velocity 402, and a time signature 405. The tempo 401 and time signature 405 are provided, for example, at the beginning of the performance data and when they change. Velocity 402 is provided for each note data within the performance data.

選択情報の拍情報302は、複数の拍情報302の中で、再生位置301に最も近い拍情報である。再生位置301が相対的に移動すると、選択状態の拍情報が新たな選択情報の拍情報に切り替わる。すると、図4の拍情報ウィンドウの表示は、新たな選択状態の拍情報に切り替わる。 The beat information 302 of the selection information is the beat information closest to the playback position 301 among the plurality of beat information 302 . When the playback position 301 moves relatively, the beat information in the selected state is switched to the beat information in the new selection information. Then, the display of the beat information window in FIG. 4 switches to the beat information in the new selected state.

図4の拍情報ウィンドウは、選択状態の拍情報302に含まれるテンポ401と、ベロシティ402と、拍子405を表示する。当該拍情報302に対応する拍の中に、複数のノートデータのベロシティがある場合には、図4の拍情報ウィンドウは、複数のノートデータのうちの先頭のノートデータのベロシティをベロシティ402として表示する。その場合、図4の拍情報ウィンドウは、複数のノートデータのベロシティの平均値をベロシティ402として表示してもよい。 The beat information window in FIG. 4 displays the tempo 401, velocity 402, and time signature 405 included in the selected beat information 302. If there are velocities of multiple note data in the beat corresponding to the beat information 302, the beat information window in FIG. 4 displays the velocity of the first note data among the multiple note data as the velocity 402. do. In that case, the beat information window in FIG. 4 may display the average value of the velocities of the plurality of note data as the velocity 402.

CPU102は、操作者のタッチパネル107の操作に応じて、図4の拍情報ウィンドウ内のテンポ401と、ベロシティ402を変更することができる。拍情報ウィンドウ内のテンポ401とベロシティ402を変更した場合は、後述する変換後のテンポT2とベロシティV2の値にそのまま反映される。 The CPU 102 can change the tempo 401 and velocity 402 in the beat information window in FIG. 4 in accordance with the operator's operation on the touch panel 107. When the tempo 401 and velocity 402 in the beat information window are changed, they are directly reflected in the values of the converted tempo T2 and velocity V2, which will be described later.

テンポ401は、例えば125であり、スライダー操作、+ボタン操作又は-ボタン操作により、変更可能である。ベロシティ402は、例えば69であり、スライダー操作、+ボタン操作又は-ボタン操作により、変更可能である。再生速度403は、スライダー操作により、変更可能である。メトロノーム音の音量404は、スライダー操作により、変更可能である。拍子405は、例えば3/4である。 The tempo 401 is, for example, 125, and can be changed by operating a slider, + button, or - button. The velocity 402 is, for example, 69, and can be changed by operating a slider, + button, or - button. The playback speed 403 can be changed by operating a slider. The volume 404 of the metronome sound can be changed by operating a slider. The time signature 405 is, for example, 3/4.

図5は、変換前の演奏データの例を示す図である。小節インデックスは、3/4拍子の小節番号を示す。拍インデックスは、3/4拍子の各小節内の拍番号を示す。図5の演奏データは、各拍情報302について、テンポT1とベロシティV1を有する。例えば、すべての拍情報302は、テンポT1が120であり、ベロシティV1が69である。 FIG. 5 is a diagram showing an example of performance data before conversion. The bar index indicates a bar number in 3/4 time. The beat index indicates the beat number within each measure of 3/4 time. The performance data in FIG. 5 has a tempo T1 and a velocity V1 for each beat information 302. For example, all beat information 302 has a tempo T1 of 120 and a velocity V1 of 69.

図6は、タップエリア303のタップ操作により入力されたタイミング情報t1及びベロシティV2の例を示す図である。CPU102は、操作者のタップエリア303のタップ操作に応じて、タイミング情報t1及びベロシティV2を入力する。タップインデックスは、図3のタップエリア303のタップ操作の識別番号を示す。タップエリア303の最初のタップ操作により、CPU102は、演奏データの再生を開始する。その最初のタップ操作は、タイミング情報t1が0になる。 FIG. 6 is a diagram illustrating an example of timing information t1 and velocity V2 input by a tap operation on the tap area 303. The CPU 102 inputs the timing information t1 and the velocity V2 in response to the operator's tap operation on the tap area 303. The tap index indicates an identification number of a tap operation in the tap area 303 in FIG. 3 . When the tap area 303 is first tapped, the CPU 102 starts playing the performance data. In the first tap operation, the timing information t1 becomes 0.

図6のタイミング情報t1及びベロシティV2が入力された後、図3のボタン321内の変換ボタンのタップ操作が行われると、CPU102は、図5の変換前のテンポT1と、図6のタイミング情報t1及びベロシティV2を基に、図7の変換後のテンポT2及びベロシティV3を生成する。 After the timing information t1 and velocity V2 in FIG. 6 are input, when the conversion button in the button 321 in FIG. 3 is tapped, the CPU 102 calculates the tempo T1 before conversion in FIG. Based on t1 and velocity V2, the converted tempo T2 and velocity V3 shown in FIG. 7 are generated.

図7は、変換後の演奏データの例を示す図である。図7のタップインデックスとタイミング情報t1は、それぞれ、図6のタップインデックスとタイミング情報t1と同じである。変換後の演奏データは、各拍について、変換後のテンポT2と、変換後のベロシティV3を有する。変換後の演奏データは、テンポが120で3/4拍子であることから、拍時間t2は、4分音符の1拍に相当する時間、つまり0.5秒間隔となる。 FIG. 7 is a diagram showing an example of performance data after conversion. The tap index and timing information t1 in FIG. 7 are the same as the tap index and timing information t1 in FIG. 6, respectively. The converted performance data has a converted tempo T2 and a converted velocity V3 for each beat. Since the converted performance data has a tempo of 120 and a 3/4 time signature, the beat time t2 is a time corresponding to one beat of a quarter note, that is, an interval of 0.5 seconds.

まず、テンポT2の設定方法を説明する。CPU102は、次式(1)のように、各拍について、図5の変換前のテンポT1と、拍時間情報t2の間隔と、タイミング情報t1の間隔を基に、変換後のテンポT2を算出する。拍時間情報t2は、1拍の時間であり、この例では4分音符の1拍の時間(0.5秒)である。もちろん、拍子やテンポが変化すれば拍時間情報t2は固定値にはならない。例えば、タップインデックスが「1」の拍の変換後のテンポT2(=150)の算出方法を示す。 First, a method for setting the tempo T2 will be explained. The CPU 102 calculates the tempo T2 after conversion for each beat, based on the tempo T1 before conversion in FIG. 5, the interval between beat time information t2, and the interval between timing information t1, as shown in the following equation (1). do. The beat time information t2 is the time of one beat, and in this example is the time of one beat of a quarter note (0.5 seconds). Of course, if the time signature or tempo changes, the beat time information t2 will not be a fixed value. For example, a method for calculating the converted tempo T2 (=150) of a beat with a tap index of "1" will be shown.

T2=T1×(t2の間隔)÷(t1の間隔)
=120×(0.5-0)÷(0.4-0)
=150 ・・・(1)
T2=T1×(t2 interval)÷(t1 interval)
=120×(0.5-0)÷(0.4-0)
=150...(1)

つまり、拍時間の間隔が0.5秒に対してタップ入力の間隔が0.4秒と短かったので、次の拍のテンポを150に速めて再生するという意味である。 In other words, since the interval between beats is 0.5 seconds and the interval between tap inputs is 0.4 seconds, this means that the tempo of the next beat will be increased to 150 and played back.

さらに例えば、タップインデックスが「3」の拍の変換後のテンポT2(=100)の算出方法を、次式に示す。 Further, for example, a method for calculating the converted tempo T2 (=100) of a beat with a tap index of "3" is shown in the following equation.

T2=T1×(t2の間隔)÷(t1の間隔)
=120×(1.5-1.0)÷(1.5-0.9)
=100
T2=T1×(t2 interval)÷(t1 interval)
=120×(1.5-1.0)÷(1.5-0.9)
=100

つまり、拍時間の間隔が0.5秒に対してタップ入力の間隔が0.6秒と長かったので、次の拍のテンポを100に遅らせて再生するという意味である。 In other words, since the interval between beat times is 0.5 seconds and the interval between tap inputs is 0.6 seconds, this means that the tempo of the next beat is delayed to 100 and then played back.

上記の算出方法によると、タップインデックスが「0」の拍の変換後のテンポT2は算出することができない。そのため、タップインデックスが「0」の拍の変換後のテンポT2は、タップインデックスが「1」の拍の変換後のテンポT2と同じ値を設定する。2拍目からいきなりテンポを変化させることは通常考えにくいため、この方法で問題はない。仮に、タップインデックスが「0」の拍の変換後のテンポT2を変換前の値(=120)に設定した場合には、2拍目からテンポが150に急激に変化する不自然な演奏データになってしまうため、この方法は適切ではない。 According to the above calculation method, the converted tempo T2 of a beat with a tap index of "0" cannot be calculated. Therefore, the converted tempo T2 of the beat whose tap index is "0" is set to the same value as the converted tempo T2 of the beat whose tap index is "1". There is no problem with this method because it is usually difficult to suddenly change the tempo from the second beat. If the converted tempo T2 of a beat whose tap index is "0" is set to the pre-converted value (=120), the tempo will suddenly change to 150 from the second beat, resulting in unnatural performance data. This method is not appropriate because it results in

以上のように、変換部202は、隣接する2つの拍のタイミング情報t1の差分と、変換後の演奏データの拍時間情報t2と、変換前の演奏データの各拍のテンポ情報T1を基に、変換後の演奏データの各拍のテンポ情報T2を算出する。 As described above, the conversion unit 202 uses the difference between the timing information t1 of two adjacent beats, the beat time information t2 of the performance data after conversion, and the tempo information T1 of each beat of the performance data before conversion. , calculates tempo information T2 for each beat of the converted performance data.

次に、ベロシティV3の設定方法を説明する。CPU102は、図6の各拍のベロシティV2を、図7の各拍のベロシティV3として設定する。そして、CPU102は、各拍のベロシティV3を、各拍内の楽音(ノートデータ)のベロシティとして設定する。 Next, a method of setting velocity V3 will be explained. The CPU 102 sets the velocity V2 of each beat in FIG. 6 as the velocity V3 of each beat in FIG. Then, the CPU 102 sets the velocity V3 of each beat as the velocity of the musical tone (note data) within each beat.

次に、同じ拍内に複数の楽音が存在する場合を説明する。CPU102は、同じ拍内に複数の楽音が存在する場合には、各拍のベロシティV2を基に、変換後の演奏データの同じ拍内の複数の楽音のベロシティを同一のベロシティにする。例えば、ある拍のベロシティV2が71である場合には、CPU102は、その拍内の複数の楽音のベロシティをすべて71にする。 Next, a case where a plurality of musical tones exist within the same beat will be explained. When a plurality of musical tones exist within the same beat, the CPU 102 sets the velocities of the plurality of musical tones within the same beat of the converted performance data to the same velocity based on the velocity V2 of each beat. For example, if the velocity V2 of a certain beat is 71, the CPU 102 sets the velocities of all tones within that beat to 71.

また、CPU102は、同じ拍内に複数の楽音が存在する場合には、各拍のベロシティV2と変換前の演奏データの同じ拍内の複数の楽音のベロシティを基に、変換後の演奏データの同じ拍内の複数の楽音のベロシティを決定してもよい。 In addition, when there are multiple musical tones within the same beat, the CPU 102 converts the performance data after conversion based on the velocity V2 of each beat and the velocity of the multiple musical tones within the same beat of the performance data before conversion. The velocities of multiple notes within the same beat may be determined.

例えば、CPU102は、同じ拍内に複数の楽音が存在する場合には、各拍のベロシティV2と、変換前の演奏データの同じ拍内の複数の楽音のベロシティの比率を基に、変換後の演奏データの同じ拍内の複数の楽音のベロシティを決定することができる。 For example, when there are multiple musical tones within the same beat, the CPU 102 calculates the converted musical tones based on the ratio of the velocity V2 of each beat to the velocity of the multiple musical tones within the same beat in the performance data before conversion. It is possible to determine the velocities of multiple musical tones within the same beat of performance data.

例えば、同じ拍内に第1の楽音と第2の楽音が存在する場合を説明する。変換前の演奏データは、第1の楽音のベロシティが100であり、第2の楽音のベロシティが50であるとする。この場合、第1の楽音のベロシティと第2の楽音のベロシティの比率は、100:50=1:0.5である。入力されたベロシティV2は、60であるとする。この場合、変換後の演奏データのベロシティは、入力されたベロシティV2と上記の比率を基に設定される。すなわち、変換後の演奏データは、第1の楽音のベロシティが60×1=60に設定され、第2の楽音のベロシティが60×0.5=30に設定される。 For example, a case will be explained in which a first musical tone and a second musical tone exist within the same beat. Assume that in the performance data before conversion, the velocity of the first musical tone is 100, and the velocity of the second musical tone is 50. In this case, the ratio of the velocity of the first musical tone to the velocity of the second musical tone is 100:50=1:0.5. It is assumed that the input velocity V2 is 60. In this case, the velocity of the converted performance data is set based on the input velocity V2 and the above ratio. That is, in the converted performance data, the velocity of the first musical tone is set to 60×1=60, and the velocity of the second musical tone is set to 60×0.5=30.

以上のように、操作者は、演奏データの拍ではなく、自分の拍のタイミングでタイミング情報t1をタップ入力すると、自分の拍の間隔に合うように次の拍のテンポを変更することができる。また、操作者は、タップの位置に応じて、楽音のベロシティを変更することができる。 As described above, when the operator taps and inputs the timing information t1 at the timing of his own beat instead of the beat of the performance data, he can change the tempo of the next beat to match the interval between his own beats. . Furthermore, the operator can change the velocity of the musical tone depending on the position of the tap.

入力部201は、操作者の操作に基づき、変換前の演奏データの各拍のタイミング情報t1を入力する。変換部202は、各拍のタイミング情報t1を基に、図5の変換前の演奏データを図7の変換後の演奏データに変換する。変換部202は、各拍のタイミング情報t1と変換前の演奏データのテンポ情報T1を基に、変換後の演奏データの各拍のテンポ情報T2を算出する。 The input unit 201 inputs timing information t1 of each beat of the performance data before conversion based on the operation of the operator. The conversion unit 202 converts the performance data before conversion shown in FIG. 5 into the performance data after conversion shown in FIG. 7 based on the timing information t1 of each beat. The conversion unit 202 calculates tempo information T2 of each beat of the performance data after conversion based on timing information t1 of each beat and tempo information T1 of the performance data before conversion.

変換部202は、式(1)のように、隣接する2つの拍のタイミング情報t1の差分と、変換後の演奏データの拍時間情報t2と、変換前の演奏データの各拍のテンポ情報T1を基に、変換後の演奏データの各拍のテンポ情報T2を算出する。 As shown in equation (1), the conversion unit 202 calculates the difference between the timing information t1 of two adjacent beats, the beat time information t2 of the performance data after conversion, and the tempo information T1 of each beat of the performance data before conversion. Based on , tempo information T2 of each beat of the converted performance data is calculated.

再生部203は、変換前の演奏データを再生する。リアルタイム入力モードでは、入力部201は、再生部203により変換前の演奏データが再生されている状態で、再生位置301の時刻に基づき、タイミング情報t1を入力し、再生位置301に対応する拍のベロシティV2を入力する。ステップ入力モードでは、入力部201は、再生部203により変換前の演奏データが再生されていない状態で、操作者の操作により指定された拍のベロシティV2を入力する。 The playback unit 203 plays back the performance data before conversion. In the real-time input mode, the input section 201 inputs timing information t1 based on the time of the playback position 301 while the playback section 203 is playing back the performance data before conversion, and inputs the timing information t1 based on the time of the playback position 301. Enter velocity V2. In the step input mode, the input unit 201 inputs the velocity V2 of the beat specified by the operator's operation while the playback unit 203 is not playing back the performance data before conversion.

表示制御部204は、図3のように、時間軸に沿って、変換前の演奏データの各楽音の発音時刻を示す矩形図形と、変換前の演奏データの拍子情報に基づく各拍情報302の時刻を示す縦ライン図形を表示するように制御する。 As shown in FIG. 3, the display control unit 204 displays, along the time axis, rectangular figures indicating the pronunciation time of each tone of the performance data before conversion, and each piece of beat information 302 based on the time signature information of the performance data before conversion. Controls to display a vertical line figure indicating the time.

表示制御部204は、変換前の演奏データの再生位置301を表示するように制御する。入力部201は、その表示された変換前の演奏データの再生位置301に基づき、タイミング情報t1を入力し、その表示された変換前の演奏データの再生位置301に対応する拍のベロシティV2を入力する。入力部201は、タッチパネル107のタップ操作又は鍵盤の押鍵操作に基づき、タイミング情報t1を入力する。 The display control unit 204 controls to display the playback position 301 of the performance data before conversion. The input unit 201 inputs timing information t1 based on the displayed playback position 301 of the performance data before conversion, and inputs the velocity V2 of the beat corresponding to the playback position 301 of the displayed performance data before conversion. do. The input unit 201 inputs timing information t1 based on a tap operation on the touch panel 107 or a key press operation on the keyboard.

再生部203は、変換前の演奏データの再生位置301が変換前の演奏データの拍情報(拍の先頭)302に到達する前に当該拍のタイミング情報t1が入力部201により入力された場合には、変換前の演奏データの再生位置301を次の拍情報(拍の先頭)302までスキップして変換前の演奏データを再生する。 If the timing information t1 of the beat is input from the input unit 201 before the playback position 301 of the performance data before conversion reaches the beat information (beginning of the beat) 302 of the performance data before conversion, the playback unit 203 skips the reproduction position 301 of the performance data before conversion to the next beat information (start of beat) 302 and reproduces the performance data before conversion.

また、再生部203は、変換前の演奏データの再生位置301が変換前の演奏データの拍情報(拍の先頭)302に到達したときに、当該拍のタイミング情報t1が未だに入力部201により入力されていない場合には、変換前の演奏データの再生を停止し、その後、当該拍のタイミング情報t1が入力部201により入力された場合には、変換前の演奏データの再生を再開する。 Furthermore, when the playback position 301 of the performance data before conversion reaches the beat information (beginning of the beat) 302 of the performance data before conversion, the playback unit 203 detects that the timing information t1 of the beat has not yet been input by the input unit 201. If not, the playback of the pre-conversion performance data is stopped, and if the timing information t1 of the beat is inputted from the input unit 201 thereafter, the playback of the pre-conversion performance data is restarted.

その場合、再生停止時間が長くなるほど変換後の次の拍のテンポが遅くなる。テンポが遅くなりすぎると不自然な演奏データに変換されてしまう。それを防止するために、テンポの下限値を設けてもよい。計算したテンポが下限値を下回る場合には、テンポを下限値に補正した上でそのテンポ補正分を相殺する形で演奏データの次の拍の前に空白時間を挿入(つまり次の拍以降の全ての楽音の時刻をその時間分後方へシフト)するようにしてもよい。 In this case, the longer the playback stop time, the slower the tempo of the next beat after conversion. If the tempo becomes too slow, it will be converted into unnatural performance data. In order to prevent this, a lower limit value of the tempo may be set. If the calculated tempo is lower than the lower limit value, the tempo is corrected to the lower limit value and a blank time is inserted before the next beat of the performance data to offset the tempo correction (in other words, the tempo after the next beat is The times of all musical tones may be shifted backward by that amount of time.

入力部201は、操作者の操作に基づき、変換前の演奏データの各拍のタイミング情報t1と各拍のベロシティV2を入力する。ベロシティは、楽音の発音強さを示す。変換部202は、各拍のベロシティV2を基に、変換後の演奏データの各楽音のベロシティを決定する。 The input unit 201 inputs the timing information t1 of each beat and the velocity V2 of each beat of the performance data before conversion based on the operation of the operator. Velocity indicates the pronunciation strength of a musical tone. The conversion unit 202 determines the velocity of each tone of the converted performance data based on the velocity V2 of each beat.

入力部201は、操作者の1つの操作に基づき、変換前の演奏データの各拍のタイミング情報t1と各拍のベロシティV2の両方を入力する。入力部201は、タッチパネル107のタップタイミングに基づき、変換前の演奏データの各拍のタイミング情報t1を入力し、タッチパネル107のタッチ操作の違いに基づき、変換前の演奏データの各拍のベロシティV2を入力する。 The input unit 201 inputs both the timing information t1 of each beat and the velocity V2 of each beat of the performance data before conversion, based on one operation by the operator. The input unit 201 inputs the timing information t1 of each beat of the performance data before conversion based on the tap timing of the touch panel 107, and inputs the velocity V2 of each beat of the performance data before conversion based on the difference in the touch operation of the touch panel 107. Enter.

また、入力部201は、鍵盤の押鍵タイミングに基づき、変換前の演奏データの各拍のタイミング情報t1を入力し、鍵盤操作の押鍵速度又は押鍵強さに基づき、変換前の演奏データの各拍のベロシティV2を入力してもよい。 The input unit 201 also inputs timing information t1 of each beat of the performance data before conversion based on the key depression timing of the keyboard, and inputs timing information t1 of each beat of the performance data before conversion based on the key depression speed or key depression strength of the keyboard operation. You may input the velocity V2 of each beat.

変換部202は、同じ拍内に複数の楽音が存在する場合には、各拍のベロシティV2を基に、変換後の演奏データの同じ拍内の複数の楽音のベロシティを同一のベロシティにする。 When a plurality of musical tones exist within the same beat, the conversion unit 202 sets the velocities of the plurality of musical tones within the same beat of the converted performance data to the same velocity based on the velocity V2 of each beat.

また、変換部202は、同じ拍内に複数の楽音が存在する場合には、各拍のベロシティV2と変換前の演奏データの同じ拍内の複数の楽音のベロシティを基に、変換後の演奏データの同じ拍内の複数の楽音のベロシティを決定してもよい。 In addition, when there are multiple musical tones within the same beat, the conversion unit 202 converts the converted performance based on the velocity V2 of each beat and the velocity of the multiple musical tones within the same beat of the performance data before conversion. The velocities of multiple notes within the same beat of data may be determined.

例えば、変換部202は、同じ拍内に複数の楽音が存在する場合には、各拍のベロシティV2と、変換前の演奏データの同じ拍内の複数の楽音のベロシティの比率を基に、変換後の演奏データの同じ拍内の複数の楽音のベロシティを決定することができる。 For example, if there are multiple musical tones within the same beat, the conversion unit 202 performs conversion based on the ratio of the velocity V2 of each beat to the velocity of the multiple musical tones within the same beat of the performance data before conversion. The velocities of multiple tones within the same beat of subsequent performance data can be determined.

以上のように、本実施形態によれば、操作者は、楽譜上にテンポ記号や強弱記号を入力したり、値を調整したりするような面倒な作業が必要なくなる。また、操作者は、楽曲の演奏を聴きながら、自分の感性の赴くまま、単調な演奏データに抑揚を簡単につけることができる。また、操作者は、1つの演奏データから、いろんな異なる抑揚の演奏データを簡単に生成することができる。操作者が異なれば、生成される演奏データも異なる。1つの演奏データを基にして、操作者の数以上の異なる抑揚の演奏データを生成することができる。 As described above, according to the present embodiment, the operator does not need to input tempo marks and dynamic marks on the musical score, or perform troublesome tasks such as adjusting values. Further, while listening to the performance of the music, the operator can easily add intonation to the monotonous performance data according to his own sensibilities. Furthermore, the operator can easily generate performance data with various intonations from one performance data. Different operators generate different performance data. Based on one piece of performance data, it is possible to generate performance data with different intonations for more than the number of operators.

本実施形態は、コンピュータがプログラムを実行することによって実現することができる。また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体及び上記のプログラム等のコンピュータプログラムプロダクトも本発明の実施形態として適用することができる。記録媒体としては、例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。 This embodiment can be realized by a computer executing a program. Further, a computer readable recording medium recording the above program and a computer program product such as the above program can also be applied as an embodiment of the present invention. As the recording medium, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, magnetic tape, nonvolatile memory card, ROM, etc. can be used.

なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 Note that the above embodiments are merely examples of implementation of the present invention, and the technical scope of the present invention should not be interpreted to be limited by these embodiments. That is, the present invention can be implemented in various forms without departing from its technical idea or main features.

201 入力部
202 変換部
203 再生部
204 表示制御部
201 Input section 202 Conversion section 203 Playback section 204 Display control section

Claims (16)

操作者の操作に基づき、第1の演奏データの各拍のタイミング情報を入力する入力手段と、
前記各拍のタイミング情報を基に、前記第1の演奏データを第2の演奏データに変換する変換手段とを有し、
前記変換手段は、前記各拍のタイミング情報と前記第1の演奏データのテンポ情報を基に、前記第2の演奏データの各拍のテンポ情報を算出することを特徴とする演奏データ変換装置。
an input means for inputting timing information of each beat of the first performance data based on an operation by an operator;
converting means for converting the first performance data into second performance data based on the timing information of each beat;
A performance data conversion device, wherein the conversion means calculates tempo information of each beat of the second performance data based on timing information of each beat and tempo information of the first performance data.
前記変換手段は、隣接する2つの拍の前記タイミング情報の差分と、拍時間情報と、前記第1の演奏データの各拍のテンポ情報を基に、前記第2の演奏データの各拍のテンポ情報を算出することを特徴とする請求項1に記載の演奏データ変換装置。 The conversion means converts the tempo of each beat of the second performance data based on the difference in timing information of two adjacent beats, beat time information, and tempo information of each beat of the first performance data. The performance data conversion device according to claim 1, wherein the performance data conversion device calculates information. 前記第1の演奏データを再生する再生手段をさらに有し、
前記入力手段は、前記再生手段により前記第1の演奏データが再生されている状態で、再生位置の時刻に基づき、前記タイミング情報を入力することを特徴とする請求項1又は2に記載の演奏データ変換装置。
further comprising reproducing means for reproducing the first performance data,
The performance according to claim 1 or 2, wherein the input means inputs the timing information based on the time of the reproduction position while the first performance data is being reproduced by the reproduction means. Data conversion device.
前記入力手段は、タッチパネルのタップ操作又は鍵盤の押鍵操作に基づき、前記タイミング情報を入力することを特徴とする請求項1~3のいずれか1項に記載の演奏データ変換装置。 4. The performance data conversion device according to claim 1, wherein the input means inputs the timing information based on a tap operation on a touch panel or a key press operation on a keyboard. 操作者の操作に基づき、第1の演奏データの各拍の楽音の発音強さを入力する入力手段と、
前記各拍の楽音の発音強さを基に、前記第1の演奏データを第2の演奏データに変換する変換手段とを有し、
前記変換手段は、前記各拍の楽音の発音強さを基に、前記第2の演奏データの各拍の楽音の発音強さを決定することを特徴とする演奏データ変換装置。
an input means for inputting the pronunciation strength of each beat of the musical tone of the first performance data based on an operation by an operator;
converting means for converting the first performance data into second performance data based on the sounding strength of the musical tone of each beat;
The performance data converting device, wherein the converting means determines the sounding strength of the musical tone of each beat of the second performance data based on the sounding strength of the musical sound of each beat.
前記第1の演奏データを再生する再生手段をさらに有し、
前記入力手段は、前記再生手段により前記第1の演奏データが再生されている状態で、再生位置に対応する拍の楽音の発音強さを入力することを特徴とする請求項5に記載の演奏データ変換装置。
further comprising reproducing means for reproducing the first performance data,
6. The performance according to claim 5, wherein the input means inputs the sounding intensity of the musical tone of the beat corresponding to the reproduction position while the first performance data is being reproduced by the reproduction means. Data conversion device.
前記入力手段は、操作者の操作により指定された拍の楽音の発音強さを入力することを特徴とする請求項5に記載の演奏データ変換装置。 6. The performance data conversion apparatus according to claim 5, wherein said input means inputs the sounding intensity of a musical tone of a beat specified by an operation by an operator. 前記入力手段は、タッチパネルのタップ強度又はタップ位置あるいは鍵盤操作の押鍵速度又は押鍵強さに基づき、前記第1の演奏データの各拍の楽音の発音強さを入力することを特徴とする請求項5~7のいずれか1項に記載の演奏データ変換装置。 The input means inputs the pronunciation strength of the musical tone of each beat of the first performance data based on the tap strength or tap position of the touch panel or the key pressing speed or key pressing strength of the keyboard operation. A performance data conversion device according to any one of claims 5 to 7. 前記変換手段は、同じ拍内に複数の楽音が存在する場合には、前記各拍の楽音の発音強さを基に、前記第2の演奏データの同じ拍内の複数の楽音の発音強さを同一の発音強さにすることを特徴とする請求項5~8のいずれか1項に記載の演奏データ変換装置。 When a plurality of musical tones exist within the same beat, the converting means converts the pronunciation intensity of the plurality of musical tones within the same beat of the second performance data based on the pronunciation intensity of the musical tones of each beat. 9. The performance data converting device according to claim 5, wherein the performance data converting device has the same sounding strength. 前記変換手段は、同じ拍内に複数の楽音が存在する場合には、前記各拍の楽音の発音強さと前記第1の演奏データの同じ拍内の複数の楽音の発音強さを基に、前記第2の演奏データの同じ拍内の複数の楽音の発音強さを決定することを特徴とする請求項5~8のいずれか1項に記載の演奏データ変換装置。 When a plurality of musical tones exist within the same beat, the converting means performs the following: 9. The performance data converting device according to claim 5, further comprising determining the sounding intensities of a plurality of musical tones within the same beat of the second performance data. 前記変換手段は、同じ拍内に複数の楽音が存在する場合には、前記各拍の楽音の発音強さと、前記第1の演奏データの同じ拍内の複数の楽音の発音強さの比率を基に、前記第2の演奏データの同じ拍内の複数の楽音の発音強さを決定することを特徴とする請求項5~8のいずれか1項に記載の演奏データ変換装置。 When a plurality of musical tones exist within the same beat, the converting means calculates a ratio between the pronunciation intensity of the musical tones of each beat and the pronunciation intensity of the plurality of musical tones within the same beat of the first performance data. 9. The performance data converting device according to claim 5, wherein the sounding intensities of a plurality of musical tones within the same beat of the second performance data are determined based on the same beat. 時間軸に沿って、前記第1の演奏データの各楽音の発音時刻を示す第1の図形と、前記第1の演奏データの拍子情報に基づく各拍の時刻を示す第2の図形を表示するように制御する第1の表示制御手段をさらに有することを特徴とする請求項1~11のいずれか1項に記載の演奏データ変換装置。 Along the time axis, a first figure indicating the sounding time of each musical tone of the first performance data and a second figure indicating the time of each beat based on the time signature information of the first performance data are displayed. 12. The performance data conversion device according to claim 1, further comprising first display control means for controlling the performance data as follows. 前記第1の演奏データの再生位置を表示するように制御する第2の表示制御手段をさらに有し、
前記入力手段は、前記表示された第1の演奏データの再生位置に基づき、前記タイミング情報を入力することを特徴とする請求項1~12のいずれか1項に記載の演奏データ変換装置。
further comprising a second display control means for controlling to display a playback position of the first performance data,
13. The performance data conversion device according to claim 1, wherein the input means inputs the timing information based on a playback position of the displayed first performance data.
前記入力手段は、操作者の1つの操作に基づき、前記第1の演奏データの各拍のタイミング情報と各拍の楽音の発音強さの両方を入力することを特徴とする請求項1~13のいずれか1項に記載の演奏データ変換装置。 14. The input means inputs both the timing information of each beat of the first performance data and the pronunciation intensity of the musical tone of each beat based on one operation by an operator. The performance data conversion device according to any one of the above. 前記再生手段は、
前記第1の演奏データの再生位置が前記第1の演奏データの拍の先頭に到達する前に当該拍のタイミング情報が前記入力手段により入力された場合には、前記第1の演奏データの再生位置を次の拍の先頭までスキップして前記第1の演奏データを再生し、
前記第1の演奏データの再生位置が前記第1の演奏データの拍の先頭に到達したときに、当該拍のタイミング情報が未だに前記入力手段により入力されていない場合には、前記第1の演奏データの再生を停止し、その後、当該拍のタイミング情報が前記入力手段により入力された場合には、前記第1の演奏データの再生を再開することを特徴とする請求項3又は6に記載の演奏データ変換装置。
The reproducing means includes:
If the timing information of the beat is input by the input means before the playback position of the first performance data reaches the beginning of the beat of the first performance data, the first performance data is played back. playing the first performance data by skipping the position to the beginning of the next beat;
When the playback position of the first performance data reaches the beginning of the beat of the first performance data, if the timing information of the beat has not yet been input by the input means, the first performance 7. The apparatus according to claim 3, wherein the reproduction of the first performance data is restarted when the data reproduction is stopped and the timing information of the beat is inputted by the input means. Performance data conversion device.
コンピュータを、請求項1~15のいずれか1項に記載の演奏データ変換装置として機能させるための演奏データ変換プログラム。 A performance data conversion program for causing a computer to function as the performance data conversion device according to any one of claims 1 to 15.
JP2022053855A 2022-03-29 2022-03-29 Performance data conversion device and performance data conversion program Pending JP2023146600A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022053855A JP2023146600A (en) 2022-03-29 2022-03-29 Performance data conversion device and performance data conversion program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022053855A JP2023146600A (en) 2022-03-29 2022-03-29 Performance data conversion device and performance data conversion program

Publications (1)

Publication Number Publication Date
JP2023146600A true JP2023146600A (en) 2023-10-12

Family

ID=88286575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022053855A Pending JP2023146600A (en) 2022-03-29 2022-03-29 Performance data conversion device and performance data conversion program

Country Status (1)

Country Link
JP (1) JP2023146600A (en)

Similar Documents

Publication Publication Date Title
US9355634B2 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon
US20050257667A1 (en) Apparatus and computer program for practicing musical instrument
JP2004205817A (en) Karaoke apparatus
JP2012083563A (en) Voice synthesizer and program
JP4116849B2 (en) Operation evaluation device, karaoke device, and program
JP2023146600A (en) Performance data conversion device and performance data conversion program
JP6179221B2 (en) Sound processing apparatus and sound processing method
JP6255744B2 (en) Music display device and music display method
JP2017129605A (en) Electronic sound apparatus
JP5516667B2 (en) Lyric character image display control device, lyric character image display control program, and lyric character image display method
JP3807380B2 (en) Score data editing device, score data display device, and program
JP2000293183A (en) Karaoke singing equipment
JPWO2019092791A1 (en) Data generator and program
JP2002323890A (en) Device and program for musical score display
JP3998461B2 (en) Performance practice device, performance practice method, program and recording medium
JP4305045B2 (en) Performance data editing apparatus and program
JP4720974B2 (en) Audio generator and computer program therefor
JP2017173655A (en) Sound evaluation device and sound evaluation method
KR20010097723A (en) Automatic composing system and method using voice recognition
JP4238237B2 (en) Music score display method and music score display program
JP4123242B2 (en) Performance signal processing apparatus and program
JP2023146777A (en) Performance data conversion device and performance data conversion program
JP7425558B2 (en) Code detection device and code detection program
JP2021099456A (en) Program, method, electronic apparatus, and musical performance data display system
JP6341032B2 (en) Apparatus and program for processing musical tone information