WO2018207936A1 - 譜面自動検出方法および装置 - Google Patents

譜面自動検出方法および装置 Download PDF

Info

Publication number
WO2018207936A1
WO2018207936A1 PCT/JP2018/018426 JP2018018426W WO2018207936A1 WO 2018207936 A1 WO2018207936 A1 WO 2018207936A1 JP 2018018426 W JP2018018426 W JP 2018018426W WO 2018207936 A1 WO2018207936 A1 WO 2018207936A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
musical score
performance
score
musical
Prior art date
Application number
PCT/JP2018/018426
Other languages
English (en)
French (fr)
Inventor
山田 誠
西口 正之
幸治 安倍
Original Assignee
株式会社デザインMプラス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デザインMプラス filed Critical 株式会社デザインMプラス
Priority to JP2019517731A priority Critical patent/JPWO2018207936A1/ja
Publication of WO2018207936A1 publication Critical patent/WO2018207936A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music

Definitions

  • the present invention relates to a musical score automatic detection method and apparatus, and more specifically, to a musical score automatic detection method and apparatus that can automatically detect which position of a musical score is being played based on performance data.
  • the conventional electronic music stand and the electronic musical score display method only display the prepared score and turn the page, and the player must step on the foot pedal to inform it. There is a problem that only a feeling of use that is not much different from the score can be obtained.
  • the present invention has been made in view of the above-mentioned conventional problems. Since the playback code included in the electronic score is used to synchronize with the performance of the performer, it is possible to specify which position on the musical score is currently being played. can do. Thus, the next musical score is automatically displayed at the timing when the performance reaches the last stage of the musical score, so that the musical score can be automatically turned without receiving a special instruction from the performer.
  • the invention according to claim 1 is a musical score synchronization method for synchronizing musical score data and performance data, which is reproduction data when a musical piece indicated by musical score data is reproduced, and a predetermined unit of musical score data
  • a spectrum calculation step for calculating the power spectrum of the associated reproduction data and performance data for each predetermined time interval frame, calculating the similarity between the power spectrum of the performance data and the power spectrum of the reproduction data, Based on the frame specifying step for specifying the corresponding time interval frame and the correspondence between the score data and the playback data, the correspondence between the performance data and the score data is specified by the specified time interval frame, and the musical score of the performance data
  • a performance position acquisition step for acquiring the upper performance position.
  • the invention according to claim 2 is characterized in that, in the musical score synchronization method according to claim 1, the reproduction data is acquired using a reproduction code included in the musical score data together with the musical score data.
  • the reproduction code is in the MIDI format, and the power spectrum is calculated for each time interval frame from the performance data or the PCM signal of the reproduction data.
  • the invention according to claim 4 is the music score synchronization method according to any one of claims 1 to 3, wherein the similarity between the power spectra is calculated using a cosine distance.
  • the performance time in the performance data of the music indicated by the musical score data included in the musical score data is acquired and the reproduction code is reproduced.
  • the invention according to claim 6 is a musical score display method for displaying musical score data, the step of displaying a musical score of a predetermined page included in the musical score data, and reproduction data when the musical piece indicated by the musical score data is reproduced.
  • the musical score synchronization method according to claim 1 wherein reproduction data associated with a predetermined unit of musical score data and performance data recorded in advance based on the musical score data are used. Then, based on the performance position on the musical score of the performance data obtained by specifying the corresponding time interval frame, the page turning step for displaying the musical score of the next page at the timing when the performance of the predetermined page ends. It is characterized by having.
  • the invention according to claim 7 is a musical score display method for displaying musical score data, a display step of displaying a predetermined page of musical score data, and performance data of performance made based on the musical score displayed by the display step
  • a performance recording step for recording the music, the reproduction data when the music indicated by the musical score data is reproduced, the reproduction data associated with a predetermined unit of the musical score data, and the performance data recorded by the performance recording step.
  • the timing at which the performance of a predetermined page ends based on the performance position on the musical score of performance data obtained by specifying the corresponding time interval frame using the musical score synchronization method according to any one of claims 1 to 5.
  • a page turning step for displaying the score of the next page.
  • the page turning step includes the step of turning the last measure of the musical score on a predetermined page based on the performance position on the musical score of the acquired performance data. When the performance is finished, the musical score of the next page is displayed.
  • the page turning step is performed based on the performance position on the musical score of the acquired performance data.
  • the musical score of the next page is displayed a predetermined time before the performance ends.
  • the page turning step is performed based on the performance position on the musical score of the acquired performance data.
  • a musical score of the next page is displayed after a predetermined time after the performance is completed.
  • the invention according to claim 11 is the musical score display method according to any one of claims 6 to 10, wherein the musical score of the next page is displayed a predetermined time before the performance of the last measure of the musical score of the predetermined page ends.
  • a scheduled score display step for displaying the first level at the lower part of the set including the last measure is further provided.
  • the invention according to claim 12 is characterized in that in the music score display method according to any of claims 6 to 11, the position on the music score being played is displayed in synchronization with the progress of the performance.
  • the invention according to claim 13 is a musical score display device for displaying musical score data, which is reproduction data when the musical score data and the music indicated by the musical score data are reproduced, and is associated with a predetermined unit of the musical score data.
  • Music score data recording means for storing the reproduced data
  • performance data storage means for storing performance data recorded in advance based on the musical score data
  • obtaining musical score data from the musical score data storage means to obtain musical score data
  • Display means for displaying a musical score of a predetermined page included, and musical score data and performance data on the musical score performance data obtained by using the musical score synchronization method according to any one of claims 1 to 5 Based on the position, the musical score of the next page is displayed on the display means at the timing when the performance of the predetermined page ends.
  • the invention described in claim 14 is a musical score display device for displaying musical score data, which is reproduction data when the musical score data and the music indicated by the musical score data are reproduced, and is associated with a predetermined unit of the musical score data.
  • Music score data recording means for storing the reproduced data, musical score data from the musical score data storage means, display means for displaying a musical score of a predetermined page included in the musical score data, and a predetermined page displayed on the display means
  • Performance recording means for recording performance data of performances performed on the basis of the musical score of the musical score, and musical performance data and performance data obtained by using the musical score synchronization method according to any one of claims 1 to 5
  • the musical score of the next page is displayed on the display means based on the performance position on the musical score.
  • the invention according to claim 15 is a musical score retrieval method for retrieving musical score data stored in a database, wherein a performance recording step of recording performance data of a performance of a part of a musical piece, musical score data and musical scores from the database
  • the reproduction data when the music indicated by the data is reproduced, the reproduction data associated with a predetermined unit of the musical score data is read, and the reproduction data and the performance data recorded in the performance recording step are claimed.
  • the invention described in claim 16 is a musical score search device for searching musical score data, which is reproduction data when the musical score data and the music indicated by the musical score data are reproduced, and is associated with a predetermined unit of the musical score data.
  • a database storing the reproduction data, performance recording means for recording performance data of a part of the music, performance data recorded in the performance recording step by reading the reproduction data from the database, A similarity acquisition unit that calculates the similarity using the music score synchronization method described in any one of the above, and a most similar extraction unit that extracts the musical score data that has acquired the highest similarity in the similarity acquisition step.
  • the reproduction data when the music indicated by the musical score data is reproduced, and the power spectrum of the reproduction data associated with the predetermined unit of the musical score data and the performance data is determined for each predetermined time interval frame.
  • FIG. 1 is an overall system configuration diagram of an embodiment of the present invention. It is a functional block diagram of the server of one Embodiment of this invention. It is a figure for demonstrating the method to take the synchronization of the sound source of one Embodiment of this invention, and musical score data, and to produce a bar time conversion table. It is a figure of the bar time conversion table
  • the musical score data of the electronic musical score and the performance based on the musical score data included in the musical score data are synchronized to specify which position on the musical score is currently being played, or a part of the performance
  • a musical score or a total score is used, but the present invention is not limited to this. Any form can be used as long as the drawing can be displayed on the terminal.
  • the electronic musical score can be used in various embodiments by synchronizing the musical score data and the performance, but in this embodiment, by specifying which position on the musical score is being played.
  • An example of realizing automatic page turning will be described.
  • performance data is acquired in advance, and a bar time conversion table showing the time correspondence with the musical score data included in the musical score data or the like is created, and on the musical score according to the performance.
  • a method for turning a page by specifying the position of each measure (first embodiment), and obtaining a performance as audio data with a device such as a microphone, and creating a bar time conversion table or a group time conversion table in real time.
  • the musical score data used in the present embodiment is MusicXML, and is basically stored in the data format of MusicXML in the server.
  • the music score described in MusicXML can be sent to the terminal as it is and displayed on the browser, or can be displayed on the browser after being converted to another display format, for example PDF, by the server.
  • MusicXML is used for the musical score data of the present embodiment, but is not limited thereto, and any format can be used as long as it can generate a musical score for display by performing some conversion or processing.
  • musical score data for example, data in MusicXML format includes musical score data defined by note data for each measure.
  • a staff score is displayed on the browser based on the musical score data, A score is drawn based on the note data of each measure.
  • the musical score data generally includes a reproduction code such as MIDI for reproducing the sound when the musical score data is played, and can be actually reproduced as a sound.
  • a playback code has various parameters, and various playback is possible depending on the playback environment and user preference. For example, the playback pitch can be changed.
  • a predetermined code is used for synchronization. Use the value.
  • the present invention can be implemented as long as it is data obtained by reproducing musical pieces of a musical score according to the musical score without using MusicXML format data, and corresponding to each unit of the musical score, for example, each measure. can do.
  • the playback time is adjusted to some extent, but the playback time of the playback data is expanded and contracted by a method known in this technical field to match the performance time of the performance data. Can do.
  • FIG. 1 is an overall system configuration diagram of an embodiment of the present invention.
  • the system includes a score management server 101 and a sound source analysis server 102 that creates a bar time conversion table from performance data serving as a sound source for analysis as a server for distributing score data and controlling the entire system. Connected via the network 103.
  • the terminal 111 that is a display device and a performance data acquisition device is basically wirelessly connected to the network 103, and can be, for example, a tablet terminal.
  • the connection to the network 103 is a line of a mobile phone.
  • a wireless network such as Wi-fi or BLUETOOTH (registered trademark).
  • the terminal 111 can be a tablet terminal, a smartphone, a mobile personal computer, or the like, but basically receives musical score data from a server to display an image, and performs a certain input operation with a touch panel, mouse or keyboard. Any device such as a mobile or desktop personal computer or a dedicated terminal can be used.
  • a microphone built in the terminal 111 can generally be used, or a performance data acquisition function is provided separately from the terminal device 111, and the sound source analysis is performed by connecting to a network. Any device that can connect to the server 102 can be used.
  • FIG. 2 is a functional block diagram of a server according to an embodiment of the present invention.
  • the score management server 101 receives and stores score data from a server or the like (not shown), a score data management module 201 that manages the score data, a score data transmission module 202 that performs the necessary processing on the received score data, and transmits it to the terminal, a score
  • the data is transmitted to the sound source analysis server 102, a measure time conversion table based on the sound source is acquired as an analysis result, the synchronization management module 203 for managing the synchronization between the performance data and the score data, and the position on the musical score currently being played,
  • a music score display module 204 is provided for calculating and displaying where the musical score displayed on the terminal corresponds, and turning the page to display the next page.
  • the sound source analysis server 102 receives performance data obtained by recording a performance based on the score displayed on the terminal 111 with a microphone or the like, and receives score data from the score management server 101.
  • the musical score data and performance data sent to the sound source analysis server 102 are associated with some additional data, etc., and the sound source analysis server 102 can appropriately perform sound source analysis by linking the two data. ing.
  • performance data is added with a musical score data identification code indicating which musical score data is based on the performance data, and is transmitted along with the performance data.
  • the score management server 101 basically manages the processing such as synchronous acquisition and turning pages according to the instructions of the performer and the operator via the score terminal 111, but the processing of this embodiment is not limited to this. If so, various system configurations such as adding another server or terminal, or integrating the sound source analysis server 102 into the score management server 101 can be adopted.
  • the performance data and the score data of the present invention are synchronized in advance, and the automatic turning of the score is realized based on the result.
  • the performance mode is different for each performance. Therefore, even if a page is turned in accordance with a certain performance, there is a possibility that the timing of the next performance will not be met.
  • performances that normally require turning pages such as performances that have been practiced in advance, and the performance mode will be constant before the performance, so if you take the turning timing in the performance after practicing to a certain stage, The timing is not greatly shifted even in the actual performance.
  • the performance is recorded in advance and the performance data is acquired before the performer performs at the actual performance, and the performance data and the score data used for the performance are synchronized. And automatically turn pages based on the synchronization.
  • FIG. 3 is a diagram for explaining a method for creating a bar time conversion table by synchronizing the sound source and the musical score data according to the embodiment of the present invention.
  • FIGS. It is a figure which shows correlation with the bar
  • FIG. 5 is a flowchart showing a process for creating a measure time conversion table by synchronizing the sound source and the musical score data of the present embodiment.
  • the musical score data transmission module 202 transmits the data in the MusicXML format to the terminal 111 and displays it on the browser (step 301), the player performs the performance by looking at the displayed musical score. Is recorded with a microphone, and the obtained performance data is sent to the sound source analysis server 102 together with other accompanying data (step 302), while the score management server 101 generates the score data corresponding to the performance data. A MIDI sound source and a bar time conversion table are transmitted (step 303). The sound source analysis server 102 analyzes the received data and creates a measure time conversion table for the recorded performance.
  • the measure time conversion table associates the measure with the time progress of the performance or playback as in the measure time conversion table 401 or 402 shown in FIGS. 4A and 4B.
  • the time is (t2-t1) or (t2'-t1 '), and the time to the fourth measure is (t5-t1) or (t5'-t1'). If these values are known for each musical score, it is possible to automatically turn the musical score based on the last measure for each musical score, and it is possible to turn the musical score with a feeling close to the actual performance of the performer.
  • the playback time is a time to be played back by a playback code such as MIDI of the score data
  • the performance time is a performance recorded by the player's performance.
  • the musical score illustrated in FIG. 3 and the like is composed of four rows on one page and four bars on the first page, but this is merely an example, and more musical bars can be included, and a plurality of musical instruments for each musical instrument can be included. It is also possible to include music scores.
  • the score terminal 111 receives score data from the score management server 101 and displays it.
  • processing can be performed from a musical score on an arbitrary page.
  • the musical score of the first page is transmitted to the musical score terminal 111, and the performer starts the performance by specifying the performance start position and sees the recorded musical score (step 501).
  • the score terminal 111 sends the information related to the recorded sound source, that is, (c) the sound source of the microphone recording (from the start to the end of the performance) and (d) the recording start position (measure number (1)) to the sound source analysis server 102.
  • the sound source analysis server 102 obtains (a) MIDI data obtained from the score data and (b) a bar time conversion table for the MIDI data from the score management server 101 (steps 502 and 503).
  • the sound source analysis server 102 uses the data (a), (b), (c), and (d) to synchronize by the similarity detection process described later, and generates a measure unit conversion table based on the recorded sound source (step 504).
  • the target of synchronization processing is MIDI playback data and pre-recorded performance data.
  • both data are short-time in a time interval frame of a predetermined frequency.
  • Fourier transform is performed to calculate a power spectrum. If the analysis window for short-time Fourier transform is performed under the conditions of sampling frequency 48 KHz, 8192 points and 50% overlap, the frame interval will be about 170 ms, but this is not restrictive, and the system environment, music composition, player type, etc. The optimal value can be used.
  • the purpose of this synchronization acquisition process is to associate the performance data with the musical score by synchronizing the reproduction data with the performance data.
  • the performance tempo and the progression of the music vary depending on the performer and, in some cases, the same performer.
  • the tempo fluctuates from measure to measure as shown by the waveform 411 by the recording sound source.
  • the sound source data obtained based on the same music basically has a power spectrum in an optimal time interval frame. Therefore, if the time interval frames having high similarities can be specified, the position on the musical score can be specified. That is, the waveform 411 of the performance data and the waveform 412 of the reproduction data shown in FIG. 4C are slightly different from each other in the height of the waveform, and the time axis varies depending on the performance pitch fluctuation by the performer. Since it is based on the sound source, it has a very similar shape as a whole.
  • the similarity is determined by calculating the distance of the power spectrum using the “matching method by dynamic programming (abbreviation DP matching)” that is a representative method. The degree will be high.
  • the cosine distance is used for calculating the specific distance of the power spectrum for each time interval frame, but the present invention is not limited to this, and any method known in this technical field can be used.
  • the performance data waveform 411 and the reproduction data waveform 412 If a frame having a high similarity is searched, the corresponding frame can be specified.
  • the waveforms 411 and 412 are different in the time axis direction, but F14-w of the time interval frame of the waveform 411 corresponds to F13-m of the waveform 412. -W and F13-m are maximized by calculating the similarity.
  • the frame with the reproduction data corresponds to on the musical score can be specified by the musical score data like the reproduction data waveform 412 and the musical score data 421 in FIG. 4C, the frame with the performance data waveform 411 is. It is also possible to specify where the musical score corresponds. Based on the above principle, it is possible to specify which part of the performance data corresponds to how many bars on the musical score.
  • each note is not associated with a waveform, and at least measures are taken.
  • the correspondence is specified by the unit.
  • the similarity calculation process becomes complicated if the frames to be compared spread over the entire music piece. Therefore, in this embodiment, a rough performance time of performance data is acquired and reproduced.
  • the playback pitch of the chord is determined. That is, the above processing is executed using the waveform of the reproduction data when the performance data and the reproduction data are reproduced at a pitch that is approximately the same length as a whole, but the similarity calculation is not limited to this. Any method known in the art, such as processing or predicting the waveform in advance, can be used because it can be substantially executed.
  • the waveform of the performance time t1 ′ to t2 ′ corresponds to the waveform of the reproduction time t1 to t2.
  • the reproduction times t1 to t2 correspond to the measure (1) according to the reproduction data measure time conversion table 401, and therefore the measures corresponding to the performance times t1 ′ to t2 ′ become the measure (1).
  • the measure time conversion table 402 of the sound source is created by taking measures corresponding to the entire musical score.
  • the performance of one page of music and the performance data is calculated by calculating the similarity of each time interval frame between the playback data and the performance data, the performance can be synchronized with that. Then, the second page is started, and the similarity is calculated by comparing with the reproduction data when the reproduction code of the second page is reproduced.
  • the performance data of all pages can be specified and turned, but it is not limited to this, the whole can be specified at once, and one page is divided into several bars or columns The corresponding frame can also be calculated.
  • the principle of the present invention has been described in the case where the data in the MusicXML format is used. However, even if the data in the MusicXML format is not used, the music on the music score is reproduced in accordance with the music score,
  • the present invention can be implemented if there is reproduction data that can be associated with each measure. At this time, the reproduction time of the reproduction data can be expanded / contracted by a method known in this technical field to match the performance data.
  • FIG. 6 is a diagram for explaining the automatic turning process according to the embodiment of the present invention
  • FIG. 7 is a flowchart showing the automatic turning process.
  • the musical score data transmission module 202 transmits the data in the MusicXML format to the terminal 111 and is displayed on the browser (Step 601).
  • the start position is sent to the score management server 101 (step 602).
  • the score management server 101 is predicted using the measure time conversion table 402.
  • the position of the musical score currently being played is displayed on the musical score terminal 111 from the performance time to be played (step 603).
  • the musical score data of the next page is transmitted to the score terminal 111 based on this determination.
  • the performer designates the performance start position (measure number) on the musical score 605, for example, as a finger 604 in FIG. (Step 701).
  • the score management server 101 that has received the start position starts from the performance start position, and uses the measure data conversion table 402 based on the performance data and the timer of the score management server 101 to measure bars along the performance according to the elapsed time.
  • Marks are displayed in order (step 702), and the performer performs using the marks as a guide (step 703). Although the mark can be highlighted, it is preferable that the mark be inconspicuous if it is a guideline for the performance and is an obstacle to the performance.
  • the musical score management server 101 automatically turns the musical score by transmitting the musical score of the next page to the musical score terminal 111 and displaying the musical score on the musical score terminal 111 (step). 704).
  • the musical score management server 101 can perform a page turning process simply by specifying a page turning or specifying a page.
  • the player sets the turn of the page, that is, the next page display timing at the time when the last measure ends, a predetermined time before the end, and a predetermined time after the end. Can be done.
  • the predetermined time can be changed. By doing this, it is suitable for performers who prefer to memorize the last measure and turn it early, or those who prefer to memorize the first measure and turn it later. Automatic page turning can be used to facilitate performance. Note that these timings and predetermined times can be set by a setting method known in this technical field.
  • a part of the music on the next page for example, only the top level may be temporarily displayed below the bottom level, and after confirming the flow of the start of the music on the next page, the page may be turned. it can.
  • the display of the musical score can be scrolled upwards as a whole to create a display space at the lower part and display the uppermost stage of the next page there, or can be reduced and displayed as a whole.
  • the bar time conversion table of the present invention is automatically acquired, and the bar time conversion table is acquired by using the bar time conversion table. It can be used for various application fields.
  • MusicXML format data is managed by the score management server 101, transmitted to the terminal 111, and displayed as a score on the browser. At this time, the position on the score corresponding to the image or music being played back can be highlighted on the terminal 111, so that the part of the performance currently being played can be known in measure units of the score. So it can be used for performance confirmation and practice.
  • a measure time conversion table can be created, and using this, the terminal 111 uses the data in the MusicXML format. Is displayed on the browser and the playback position is specified, and the server is informed of the specified bar, so that the server calculates the playback position of the video or music corresponding to the bar, that is, the playback time. Video and music can be played from the position.
  • the turning of the score displayed on the score terminal 111 during the performance is automatically performed.
  • recording or the like is not performed in advance, and synchronization is performed in real time.
  • the performance data and the score data are synchronized in advance, and the automatic turning of the musical score is realized based on the result, but in this embodiment, when the performance is started for a certain musical score, The performance is recorded and synchronized, and the end time is predicted and the page is automatically turned.
  • automatic page turning can be performed in real time without recording in advance and analyzing the sound source, that is, without making a certain preparation.
  • the automatic turning of the first embodiment creates a measure time conversion table in synchronization with each other in advance, so that, for example, when performed by a plurality of players such as orchestras, the performance is relatively stable. If you can't expect a stable performance with a small number of players, there is a possibility that the timing of turning pages will shift. On the other hand, the automatic page turning of this embodiment predicts from the progress of the performance to the middle of the score, so even if the timing may be shifted due to the character of the music, the performance tempo of the performer is real-time Because it matches, you can expect a more accurate turn depending on the combination of the performer and the song.
  • FIG. 8 is a diagram for explaining an example in which the sound source and the score data of the present embodiment are synchronized.
  • FIG. 9 is a diagram for explaining the automatic page turning method of the present embodiment.
  • FIG. 10 is a flowchart showing the automatic turning process of the present embodiment.
  • the musical score data transmission module 202 transmits data in the MusicXML format to the terminal 111 and displays it on the browser (step 801).
  • the performance is performed and the microphone acquires it, the performance start position and other additional data are transmitted to the sound source analysis server 102 in real time or divided (step 802).
  • the score management server 101 transmits the MIDI sound source generated from the score data corresponding to the performance data and its bar time conversion table (step 803).
  • the sound source analysis server 102 analyzes the received data and creates a measure time conversion table or a group time conversion table for the recorded performance, which will be described in detail later.
  • the automatic page turning process performs the page turning process at the timing when the performance is considered to have progressed to the last measure by determining the performance time while synchronizing the performance data and the score data in real time as described above.
  • the method of synchronization is basically the same as in the above-described first embodiment, which is reproduced data (accurately, an audio waveform considered to be obtained when a reproduced code is reproduced, and does not need to be actually reproduced. ) And the performance data are synchronized by calculating the similarity of the waveforms and specifying the path with the highest similarity. Specific methods such as calculating the similarity between waveforms are described in this technical field. Any method known in can be used.
  • synchronization is performed for each stage included in the score. Specifically, when the performer instructs the start of performance, the playback data when the first set is played back at a predetermined playback pitch is obtained, and the similarity with the performance data transmitted from the score terminal is calculated. Specify the correspondence between time interval frames.
  • the predetermined reproduction pitch is determined by inputting a value expected by the performer in advance and using it, or by predicting by any method known in this technical field.
  • the performance time for one page of the score is determined using a plurality of sets while synchronizing for each set.
  • the synchronization acquisition method using the waveform similarity according to the present invention has a characteristic that accuracy increases as the number of samples increases. For example, it can be understood by looking at the waveform 411 of the performance data in FIG. 4C. Even if synchronization is taken for each measure, the fixed pitch cannot be specified because the fluctuation is large. However, if synchronization is performed using as many sets as possible, more accurate performance time can be determined. However, since the page turning process must be started after the performance time has been determined, the time required for the page turning process will be eliminated if synchronization is achieved until the last minute. It is determined in consideration of the balance of processing time.
  • the score terminal 111 receives and displays the score data from the score management server 101, and the performer specifies the performance start position (measure number), and then uses the built-in microphone of the score terminal 111 or an external microphone. Recording of the performance is started (step 1001). Next, the score terminal 111 transmits the recorded sound source, that is, (c) the sound source of microphone recording (up to T1) and (d) the recording start position (measure number (1)) to the sound source analysis server 102 (step 1002). ).
  • T1 only needs to have sufficient time for synchronization with respect to the first stage, for example, and can be determined in advance by the system.
  • the sound source analysis server 102 obtains data (a) MIDI sound source and (b) multi-stage time conversion table obtained from the score data from the score management server 101 (step 1003).
  • the sound source analysis server 102 obtains synchronization by the similarity detection process from the data (a) (b) (c) (d), and predicts the time to play the next set (step 1004).
  • the performer determines whether or not to start playing the last stage of the page (step 1005). When it is determined that the performance enters the last stage (Yes), the synchronization acquisition process is terminated.
  • the page turning process is started (step 1007).
  • a bar time conversion table based on performance data may be created finally, and since synchronization is not performed in units of bars, the column time conversion of reproduction data is performed for each column.
  • a similar conversion table can be created using a table. That is, after acquiring the correspondence between the waveform of the playback data and the waveform of the performance data for the stage, if the start time of the waveform of each stage of performance data (not shown) is specified, the waveform of each stage of the playback data Is used to specify how many sets it is, and a performance data set time conversion table is created.
  • the sound source analysis server 102 acquires the data (c) (d) recorded at the next Tx time (step 1006), and reaches the final stage. Steps 1003 to 1005 are repeated. In this way, the first stage processing is completed at time T1, and the next stage 911 is estimated as shown in FIG. 9, and the next stage 912 is estimated from the performance data acquired at time T2. Is done. By repeating the above, the accuracy can be further improved.
  • the process is executed.
  • the specific process is matched to a player, a song, a system, and the like.
  • Automatic page turning at various timings That is, also in this embodiment, the player can set the display timing of the next page at the time when the last assembly ends, a predetermined time before the end, and a predetermined time after the end. It is like that.
  • the predetermined time can also be changed.
  • a part of the score on the next page for example, only the top level is temporarily displayed below the bottom level, and after confirming the flow of the start of the next page, the page is turned. You can also At this time, the display of the musical score can be scrolled up to the whole, creating a display space at the bottom, and displaying the uppermost column of the next page there.
  • synchronization is performed for each group.
  • the present invention is not limited to this, and synchronization may be performed for each predetermined number of measures.
  • this embodiment does not automatically turn pages, but similarly uses the method for synchronously acquiring performance data and reproduction data according to the present invention. That is, by using the synchronization acquisition method of the present invention, the musical score of the music is searched using a part of the performance, for example, the data of the first few bars. Specifically, the performance data obtained by recording a part of the performance and the score data stored in the score management server 101 are synchronized by the synchronization acquisition method of the present invention, and the score having the highest similarity is obtained. Output musical score data.
  • FIG. 11 is a diagram for explaining an example of searching for music by synchronizing the sound source and score data according to the embodiment of the present invention
  • FIG. 12 is a flowchart showing the music search processing of the present embodiment. It is.
  • the performance data is transmitted to the sound source analysis server 102 together with the performance start position (Ste 1102).
  • the score management server 101 transmits a MIDI sound source generated from the score data and its bar time conversion table to the sound source analysis server 102 for a plurality of score data to be searched (step 1103).
  • the sound source analysis server 102 analyzes the received data and creates a bar time conversion table for the recorded performance.
  • the similarity obtained by synchronizing a part of the performance data with each of the plurality of score data stored in the score management server 101 is used as an evaluation value, and there is a case where a predetermined threshold value is exceeded. If the music data of the performance data is specified, the search fails.
  • the threshold value may be determined in advance as an optimal value depending on the music or system configuration, and can also be learned through such a search.
  • the performer performs from the beginning of the music, and transmits the performance data recorded using the score terminal built-in microphone or the external microphone to the sound source analysis server 102 (step 1201).
  • the sound source analysis server 102 extracts data for a predetermined time (T1) from the recorded data (step 1202).
  • T1 may be a time sufficient to specify the music, and can be determined in advance by the system.
  • the sound source analysis server 102 obtains data (a) MIDI data and (b) bar time conversion table obtained from the score data from the score management server 101 (step 1203).
  • the sound source analysis server 102 performs synchronous acquisition by the similarity detection process from the data (a) (b) (c) (d), and generates an evaluation value for similarity detection (step 1204).
  • the highest similarity obtained by the synchronization acquisition method of the present invention that is, data of a part of the music played by the performer and a predetermined score (for example, one of the scores A to Z in FIG. 11) in the database
  • the highest degree of similarity when synchronized with the data is set as an evaluation value of predetermined musical score data. It is determined whether or not the evaluation value has exceeded the threshold (step 1205). If it is determined that the evaluation value has been exceeded (Yes), it is determined that the music has been correctly searched, the searched score is distributed to the score terminal, and the process ends. (Step 1206).
  • step 1207 If it is determined that the threshold value is not exceeded (No), it is determined whether or not evaluation values have been calculated for all the songs stored in the score management server 101 (step 1207). (No), the evaluation value is similarly calculated for the next music piece (step 1208). If it is determined that the recording has been completed (Yes), data for a predetermined time (T1 + T2) is added from the recorded data (step 1209). ). If there is performance data, the process after step 1203 is performed in time T1 + T2, and the search process is executed. If an evaluation value exceeding the threshold is obtained, it is determined that the search is normally performed.
  • a desired musical score can be obtained from the musical score management server 101 by playing only a part of the music, so that, for example, the start or part can be played, but if there is no musical score, the entire music cannot be played.
  • a required musical score can be obtained and all the songs can be played on the spot.
  • the present embodiment can be used in various scenes by directly searching for a musical score instead of searching for a song title.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】 現在譜面上のどの位置を演奏しているかを特定すること。 【解決手段】 音源解析サーバ102は、端末111で表示されている楽譜に基づいた演奏をマイクロフォン等で録音した演奏データを受信し、楽譜管理サーバ101から楽譜データを受信する楽譜データ受信モジュール205、演奏データと楽譜データとの同期を本実施形態の同期取得方法によりとる同期取得モジュール206および同期をとった結果、音源による小節時間変換表を作成して楽譜管理サーバ101に出力する変換表出力モジュール207を備える。

Description

譜面自動検出方法および装置
 本発明は譜面自動検出方法および装置に関し、より具体的には、演奏データに基づいて譜面のどの位置を演奏しているかを自動的に検出することができる譜面自動検出方法および装置に関する。
 近年、従来の紙の楽譜に代わりMusicXMLなどを用いた、いわゆる電子楽譜を専用装置や、タブレットパソコンなどに表示させて演奏用の楽譜として使用する例が増加してきている。
 例えば、このような電子楽譜は、有償無償を問わず表示、再生あるいは管理ソフトが多種類存在し、これらをインストールすることにより、パソコン等で表示および再生を行うこともできるが、特許文献1に示すような電子譜面台及び電子譜面の表示方法により、画面に楽譜を表示させて、演奏に用いることも提案されている。特許文献1の電子譜面台及び電子譜面の表示方法は、液晶型タッチパネル式のディスプレイに電子譜面を表示し、演奏者が演奏を中断せずに譜面めくり信号を入力することが可能なフットペダルを踏むと、譜面めくり信号が電子譜面台に送信され、その信号に合わせて譜面めくりが行われる。
特開2000-231379号公報
 しかし、従来の電子譜面台及び電子譜面の表示方法は、あくまで用意された楽譜を表示しておいて譜めくりをする際は演奏者がフットペダルを踏んで知らせなければならず、従来の紙の楽譜と大差がない使用感しか得られないという問題がある。
 本発明は上記従来の問題に鑑みてなされたものであり、電子楽譜に含まれる再生コードを用いて、演奏者の演奏と同期を取るので、現在譜面上のどの位置を演奏しているかを特定することができる。これにより、譜面の最後の組段まで演奏が来るタイミングで自動的に次の譜面を表示することにより、演奏者から特別な指示を受けることなく、自動的に譜めくりすることができる。
 請求項1に記載の発明は、譜面データと、演奏データとの同期をとる譜面同期方法であって、譜面データの示す楽曲を再生したときの再生データであって、譜面データの所定の単位と対応付けられた再生データと、演奏データとのパワースペクトルを所定の時間区間フレームごとに算出するスペクトル算出ステップと、演奏データのパワースペクトルと、再生データのパワースペクトルとの類似度を算出して、対応する時間区間フレームを特定するフレーム特定ステップと、譜面データと再生データとの対応関係に基づいて、特定された時間区間フレームにより演奏データと譜面データとの対応関係を特定して演奏データの譜面上の演奏位置を取得する演奏位置取得ステップとを備えることを特徴とする。
 請求項2に記載の発明は、請求項1に記載の譜面同期方法において、再生データは、譜面データとともに楽譜データに含まれる再生コード用いて取得することを特徴とする。
 請求項3に記載の発明は、請求項2に記載の譜面同期方法において、再生コードはMIDI形式であり、パワースペクトルは、演奏データまたは再生データのPCM信号から時
間区間フレームごとに算出することを特徴とする。
 請求項4に記載の発明は、請求項1ないし3のいずれかに記載の譜面同期方法において、パワースペクトル同士の類似度は、コサイン距離を用いて算出することを特徴とする。
 請求項5に記載の発明は、請求項2ないし4のいずれかに記載の譜面同期方法において、楽譜データに含まれる譜面データの示す楽曲の、演奏データにおける演奏時間を取得し、再生コードを再生したときの再生データの再生時間が、略同一になるような再生ピッチを算出するピッチ算出ステップをさらに備え、再生データは、再生コードを、算出されたピッチで再生したときのデータであることを特徴とする。
 請求項6に記載の発明は、譜面データを表示する譜面表示方法であって、譜面データに含まれる所定のページの譜面を表示するステップと、譜面データの示す楽曲を再生したときの再生データであって、譜面データの所定の単位と対応付けられた再生データと、譜面データに基づいて予めなされた演奏を記録した演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて、対応する時間区間フレームを特定して取得した前記演奏データの譜面上の演奏位置に基づいて、前記所定のページの演奏が終了するタイミングで次のページの譜面を表示する譜めくりステップとを備えたことを特徴とする。
 請求項7に記載の発明は、譜面データを表示する譜面表示方法であって、譜面データの所定のページを表示する表示ステップと、表示ステップにより表示された譜面に基づいてなされた演奏の演奏データを記録する演奏記録ステップと、譜面データの示す楽曲を再生したときの再生データであって、譜面データの所定の単位と対応付けられた再生データと、演奏記録ステップにより記録された演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて、対応する時間区間フレームを特定して取得した演奏データの譜面上の演奏位置に基づいて、所定のページの演奏が終了するタイミングで次のページの譜面を表示する譜めくりステップとを備えたことを特徴とする。
 請求項8に記載の発明は、請求項6または7に記載の譜面表示方法において、譜めくりステップは、取得した演奏データの譜面上の演奏位置に基づいて、所定のページの譜面の最終小節の演奏が終了すると、次のページの譜面を表示することを特徴とする。
 請求項9に記載の発明は、請求項6または7に記載の譜面表示方法において、譜めくりステップは、取得した演奏データの譜面上の演奏位置に基づいて、所定のページの譜面の最終小節の演奏が終了する所定の時間前に、次のページの譜面を表示することを特徴とする。
 請求項10に記載の発明は、請求項6または7に記載の譜面表示方法において、譜めくりステップは、取得した演奏データの譜面上の演奏位置に基づいて、所定のページの譜面の最終小節の演奏が終了した後所定の時間後に、次のページの譜面を表示することを特徴とする。
 請求項11に記載の発明は、請求項6ないし10のいずれかに記載の譜面表示方法において、所定のページの譜面の最終小節の演奏が終了する所定の時間前に、次のページの譜面の第1段を、最終小節を含む組段の下部に表示する予定譜表示ステップをさらに備えたことを特徴とする。
 請求項12に記載の発明は、請求項6ないし11のいずれかに記載の譜面表示方法において、演奏の進行に同期して、演奏されている譜面上の位置を表示することを特徴とする。
 請求項13に記載の発明は、譜面データを表示する譜面表示装置であって、譜面データおよび譜面データの示す楽曲を再生したときの再生データであって、譜面データの所定の単位と対応付けられた再生データを記憶した譜面データ記録手段と、譜面データに基づいて予めなされた演奏を記録した演奏データを記憶した演奏データ記憶手段と、譜面データ記憶手段から譜面データを取得して、譜面データに含まれる所定のページの譜面を表示する表示手段とを備え、譜面データと、演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて取得した演奏データの譜面上の演奏位置に基づいて、所定のページの演奏が終了するタイミングで次のページの譜面を前記表示手段に表示することを特徴とする。
 請求項14に記載の発明は、譜面データを表示する譜面表示装置であって、譜面データおよび譜面データの示す楽曲を再生したときの再生データであって、譜面データの所定の単位と対応付けられた再生データを記憶した譜面データ記録手段と、譜面データ記憶手段から譜面データを取得して、譜面データに含まれる所定のページの譜面を表示する表示手段と、表示手段に表示された所定のページの譜面に基づいてなされる演奏の演奏データを記録する演奏記録手段とを備え、譜面データと、演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて取得した演奏データの譜面上の演奏位置に基づいて、次のページの譜面を前記表示手段に表示することを特徴とする。
 請求項15に記載の発明は、データベースに格納された、譜面データを検索する譜面検索方法であって、楽曲の一部の演奏の演奏データを記録する演奏記録ステップと、データベースから譜面データおよび譜面データの示す楽曲を再生したときの再生データであって、譜面データの所定の単位と対応付けられた再生データを読み出して、再生データと、演奏記録ステップで記録された演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて類似度を算出する類似度取得ステップと、類似度取得ステップにより、最も高い類似度を取得した譜面データを抽出する最類似抽出ステップとを備えたことを特徴とする。
 請求項16に記載の発明は、譜面データを検索する譜面検索装置であって、譜面データおよび譜面データの示す楽曲を再生したときの再生データであって、譜面データの所定の単位と対応付けられた再生データを格納したデータベースと、楽曲の一部の演奏の演奏データを記録する演奏記録手段と、データベースから再生データを読み出して、演奏記録ステップで記録された演奏データと請求項1ないし5のいずれかに記載の譜面同期方法を用いて類似度を算出する類似度取得手段と、類似度取得ステップにより、最も高い類似度を取得した譜面データを抽出する最類似抽出手段とを備えたことを特徴とする。
 本発明によると、譜面データの示す楽曲を再生したときの再生データであって、譜面データの所定の単位と対応付けられた再生データと、演奏データとのパワースペクトルを所定の時間区間フレームごとに算出するスペクトル算出ステップと、演奏データのパワースペクトルと、再生データのパワースペクトルとの類似度を算出して、対応する時間区間フレームを特定するフレーム特定ステップと、譜面データと再生コードとの対応関係に基づいて、特定された時間区間フレームにより演奏データと譜面データとの対応関係を特定して演奏データの譜面上の演奏位置を取得する演奏位置取得ステップとを備えているので、現在譜面上のどの位置を演奏しているかを特定することができ、譜面の最後の組段まで演奏が来るタイミングで自動的に次の譜面を表示することにより、自動的に譜めくりすることが可能となる。
本発明の一実施形態の全体のシステム構成図である。 本発明の一実施形態のサーバの機能ブロック図である。 本発明の一実施形態の音源と楽譜データとの同期をとって小節時間変換表を作成する方法を説明するための図である。 本発明の一実施形態で譜面上の小節とそれに対応する演奏位置の関連付けを示すXML楽譜による小節時間変換表の図である。 本発明の一実施形態で譜面上の小節とそれに対応する演奏位置の関連付けを示すによる録音音源による小節時間変換表の図である。 本発明の一実施形態で譜面上の小節とそれに対応する演奏位置の関連付けを示す図である。 本発明の一実施形態の音源と楽譜データとの同期をとる処理を示すフローチャートである。 本発明の一実施形態の自動譜めくり処理を説明するための図である。 本発明の一実施形態の自動譜めくり処理を示すフローチャートである。 本発明の一実施形態の音源と楽譜データとの同期をとる別の例を説明するための図である。 本発明の一実施形態の自動譜めくり処理の別の例を説明するための図である。 本発明の一実施形態の別の例の自動譜めくり処理を示すフローチャートである。 本発明の一実施形態の楽譜検索方法を説明するための図である。 本発明の一実施形態の楽譜検索方法の処理を示すフローチャートである。 本発明の一実施形態で用いる類似度算出処理を説明するための図である。
 以下、本発明の譜面自動検出方法および装置について、図面を参照して実施形態を説明する。なお、異なる図面でも、同一の処理、構成を示すときは同一の符号を用いる。
 本実施形態は、電子楽譜の楽譜データと、その楽譜データに含まれる譜面データに基づく演奏との同期をとって、現在譜面上のどの位置を演奏しているかを特定したり、演奏の一部に基づいてその演奏がどの譜面を用いてなされたものかを検索したりするものであり、以下の実施形態では楽譜、あるいは総譜を用いて行うが、これに限られず、演奏の進行を示す何らかの図面を端末に表示させることができれば、いずれの形態でも対応することができる。
 本発明によると、楽譜データと演奏との同期をとることにより、電子楽譜を様々な実施形態で用いることができるが、本実施形態では譜面上のどの位置を演奏しているかを特定
することにより、自動譜めくりを実現する例を説明する。本実施形態の自動譜めくりは、事前に演奏データを取得しておいて、楽譜データ等に含まれる譜面データとの時間対応を示す小節時間変換表を作成しておき、演奏にあわせて譜面上の位置を例えば小節ごとに特定して譜めくりする方法(第1実施形態)、および演奏をマイクロフォンなどの機器で音声データとして取得し、リアルタイムで小節時間変換表あるいは組段時間変換表を作成して譜めくりタイミングを判定したり、演奏にあわせて譜面上の位置を表示したりする方法(第2実施形態)がある。
 また、演奏の一部に基づいてその演奏がどの譜面を用いてなされたものかを検索する例として、数小節を演奏した演奏データからその楽曲を検索する例(第3実施形態)を説明する。
 ここで、本実施形態で用いる楽譜データは、MusicXMLであり、サーバ内では基本的にはMusicXMLのデータフォーマットで保持している。MusicXMLで記述された楽譜はそのまま端末に送信してブラウザで表示させることもできるし、サーバで他の表示用のフォーマット、例えばPDFに変換して端末に送信し端末のブラウザで表示させることもできる。以上のように、本実施形態の楽譜データはMusicXMLを用いるが、これに限られず、何らかの変換や処理を行って、表示用の楽譜を生成できるものであればいずれのフォーマットも用いることができる。
 一般に、楽譜データ、例えばMusicXMLフォーマットのデータは、各小節ごとに音符データが規定する譜面データを含んでおり、端末では楽譜データを受信すると、譜面データに基づいてブラウザ上で五線譜を表示して、各小節の音符データに基づいて楽譜を描画していく。楽譜データは一般に、譜面データを演奏したときの音を再現するためのMIDI等の再生コードも含んでおり、実際に音として再生することもできる。また、一般に再生コードは様々なパラメータを有しており、再生環境やユーザの好みにより多様な再生が可能であり、例えば再生ピッチを変えることができるが、本実施形態では同期をとるにあたり所定の値を用いるようにする。
 さらに、再生コードにより再生するときは、再生している譜面上の位置も特定できるので、上述の譜面データにより表示した譜面に現在の再生位置を表示することができる。もちろん、MusicXMLフォーマットのデータを使用しないでも、譜面の楽曲を譜面通りに再生したデータであって、譜面の各単位、例えば各小節との対応が取れている再生データであれば、本発明は実施することができる。本実施形態で再生データと演奏データとの同期をとる際、ある程度再生時間を合わせるが、再生データの再生時間は本技術分野で知られた方法で伸縮させて、演奏データの演奏時間に合わせることができる。
 なお、ブラウザによっては、楽譜データを端末でそのまま表示できない場合、楽譜管理サーバ101から画像データ、例えばPDF形式のデータとして送信し、ブラウザで表示することもできるが、本技術分野で知られた方法により本実施形態で説明する処理を達成することができるので、詳細は省略する。
(システム構成)
 本発明の一実施形態で用いる動画再生管理方法の具体的なシステムの動作及び処理を以下に説明する。図1は、本発明の一実施形態の全体のシステム構成図である。本システムでは、楽譜データを配信したり、システム全体を制御したりするためのサーバとして、楽譜管理サーバ101、および解析の音源となる演奏データから小節時間変換表を作成する音源解析サーバ102を備えており、ネットワーク103を介して接続されている。
 表示装置および演奏データ取得装置である端末111は、基本的に無線でネットワーク103に接続されており、例えばタブレット端末とすることができ、本実施形態でネット
ワーク103との接続は、携帯電話の回線や、Wi-fi、BLUETOOTH(登録商標)等の無線ネットワークにより行う。ここで端末111はタブレット端末のほか、スマートフォン、あるいはモバイルパソコン等とすることができるが、基本的に楽譜データ等をサーバから受信して画像を表示、およびタッチパネル、マウスまたはキーボードで一定の入力操作をすることができれば、モバイルあるいはデスクトップのパソコン、専用端末などいずれの装置を用いることができる。また、演奏データ取得装置としては、一般的に端末111に内蔵されたマイクロフォンを使用することができ、あるいは端末装置111とは別に演奏データ取得機能を有しており、ネットワークに接続して音源解析サーバ102に接続できるものであればいずれの装置も使用することができる。
 図2は、本発明の一実施形態のサーバの機能ブロック図である。楽譜管理サーバ101は、図示しないサーバ等から楽譜データを受信して記憶し、管理する楽譜データ管理モジュール201、受信した楽譜データに必要な処理を行って端末に送信する楽譜データ送信モジュール202、楽譜データを音源解析サーバ102に送信して解析結果として音源による小節時間変換表を取得し、演奏データと楽譜データとの同期を管理する同期管理モジュール203および現在演奏されている譜面上の位置を、端末に表示された楽譜のどこに対応するかを算出して表示させたり、譜めくりして次のページを表示させたりする譜面表示モジュール204を備える。
 また、音源解析サーバ102は、端末111で表示されている楽譜に基づいた演奏をマイクロフォン等で録音した演奏データを受信し、楽譜管理サーバ101から楽譜データを受信する楽譜データ受信モジュール205、演奏データと楽譜データとの同期を本実施形態の同期取得方法によりとる同期取得モジュール206および同期をとった結果、音源による小節時間変換表を作成して楽譜管理サーバ101に出力する変換表出力モジュール207を備える。ここで、音源解析サーバ102に送られる楽譜データと演奏データとは何らかの付加データ等で紐づけがなされており、音源解析サーバ102で2つのデータを紐づけて音源解析が適切にできるようになっている。例えば、演奏データには演奏者や使用した装置の情報のほかに、どの楽譜データに基づいた演奏かを示す楽譜データの識別コードも付加されて演奏データとともに送られるなど、本技術分野で知られた方法で、データ間の紐づけを行うことができる。また、同期取得や譜めくり等の処理は基本的に楽譜管理サーバ101が、楽譜端末111を介した演奏者や操作者の指示をもって管理するが、これに限らず本実施形態の処理が達成されるなら、別のサーバや端末を追加し、あるいは音源解析サーバ102を楽譜管理サーバ101に統合するなど、種々のシステム構成とすることができる。
 (第1実施形態)
 本実施形態では、本発明の演奏データと楽譜データとの同期を予めとっておいて、その結果に基づき譜面の自動譜めくりを実現する。一般に、演奏者が同じでも演奏のたびに演奏態様は異なるから、ある演奏に合わせて譜めくりしても、次に演奏するときの譜めくりのタイミングには合わない可能性がある。しかし、通常譜めくりが必要な本番等の演奏は、事前に練習を重ねて本番前には演奏態様が一定してくるものだから、ある段階まで練習した後の演奏で譜めくりタイミングを取れば、本番の演奏でも大きくタイミングがずれることはない。
 本実施形態では、以上の知見から、演奏者が本番の演奏会等で演奏する前に予め演奏を録音し演奏データを取得しておき、演奏データとその演奏に用いられた楽譜データとの同期をとって、その同期に基づき譜めくりを自動で行う。
 (小節時間変換表の作成)
 以下に、図3~図5を参照して本発明の同期取得処理を説明する。
 図3は、本発明の一実施形態の音源と楽譜データとの同期をとって小節時間変換表を作成する方法を説明するための図であり、図4AないしCは、本実施形態で譜面上の小節とそれに対応する再生位置の関連付けを示す図である。図5は、本実施形態の音源と楽譜データとの同期をとって小節時間変換表を作成する処理を示すフローチャートである。
 本実施形態では、図3に示すように端末111に、楽譜データ送信モジュール202が、MusicXML形式のデータを送信してブラウザ上に表示すると(ステップ301)表示された譜面を見て演奏者が演奏を行い、それをマイクロフォンで録音し、得られた演奏データをその他の付随データとともに、音源解析サーバ102に送る(ステップ302)一方、楽譜管理サーバ101からは演奏データに対応する楽譜データにより生成されるMIDI音源及び小節時間変換表を送信する(ステップ303)。音源解析サーバ102では、受信したデータを解析して、録音された演奏についての小節時間変換表を作成する。
 ここで、小節時間変換表は図4AおよびBに示す小節時間変換表401または402のように、小節と演奏または再生の時間進行とを対応付けたもので、例えば第1小節の再生時間または演奏時間は(t2-t1)または(t2’-t1’)で、第4小節までの時間は(t5-t1)または(t5’-t1’)となる。譜面ごとにこれらの値が分かれば、譜面ごとに最後の小節を基準に自動的に譜めくりして、演奏者の実際の演奏時に近い感覚で譜めくりが可能になるのである。
 なお、本実施形態で再生時間、演奏時間と分けて記述する場合は、再生時間とは楽譜データのMIDI等の再生コードにより再生する時間であり、演奏時間とは演奏者の演奏を録音した演奏データの長さである。また、図3等に例示する譜面は1ページが4段、1段目が4小節からなっているが、これは単なる例示であり、より多くの小節を含むこともできるし、楽器毎の複数の譜面を含むこともできる。
 図5のフローチャートを参照して、具体的な処理を説明する。まず、楽譜端末111は、楽譜管理サーバ101から楽譜データを受信して表示する。一般に本発明の同期取得方法では、任意のページの譜面から処理することができるが、実際にはパラメータが多くなり過ぎ非効率なので、楽曲の最初、すなわち1頁の譜面から処理する。したがって、まず1ページ目の譜面が楽譜端末111に送信され、表示された譜面を見て演奏者は演奏開始位置を指定して演奏を開始して録音が行われる(ステップ501)。
 次に、楽譜端末111は、録音した音源に関する情報、すなわち(ウ)マイク録音の音源(演奏開始から最後まで)および(エ)録音開始位置(小節番号(1))を、音源解析サーバ102に送信し、音源解析サーバ102は、楽譜データより得られるデータ(ア)MIDIデータと(イ)MIDIデータについての小節時間変換表とを、楽譜管理サーバ101より得る(ステップ502、503)。音源解析サーバ102は、データ(ア)(イ)(ウ)(エ)より、後述する類似検出処理による同期をとり、録音音源による小節単位変換表を生成する(ステップ504)。
 (類似検出処理による同期取得)
 図4Cを参照して、本発明の、同期取得処理を説明するが、先ず図13を参照して本実施形態における類似度の検出について説明する。
 本実施形態で同期処理をする対象となるのは、MIDIの再生データ、および予め録音された演奏データになるが、図13に示すように両データとも各々所定の周波数の時間区間フレームで短時間フーリエ変換を行ってパワースペクトルを算出する。短時間フーリエ
変換の分析窓をサンプリング周波数48KHz、8192点、50%オーバーラップという条件で行うと、フレームの間隔は約170msとなるが、これに限られず、システム環境、楽曲、演奏者のタイプなどで最適な数値を用いることができる。
 本同期取得処理の目的は、再生データと演奏データとの同期をとって、演奏データと譜面とを対応付けることである。上述したように一般に同じ譜面に基づいて演奏しても、演奏者により、場合によっては同じ演奏者でも時により演奏テンポや曲の進行は異なる。例えば、図4CのMIDI音源による波形412に示すように、本来であれば小節ごとに一定のテンポで再生されることが期待されるが、通常の演奏者による演奏は、このように機械的な波形とはならず、録音音源による波形411に示すように、小節ごとにテンポが揺らぐ。
 一方で、本実施形態のように基本的には同じ楽曲に基づいて得られた音源データは、一般に最適な時間区間フレームでパワースペクトルを取ると、譜面上で同一の部分のデータはきわめて類似度が高くなるので、相互に類似度の高くなる時間区間フレームを特定できれば、譜面上の位置を特定することができる。すなわち、図4Cに示すような演奏データの波形411と再生データの波形412は、波形の高さが微妙に異なり、演奏者による演奏ピッチの揺れなどから時間軸に差異が出るが、同じ楽曲に基づいた音源なので全体としては極めて類似した形状をしている。
 本実施形態で類似度は、代表的な手法である「動的計画法によるマッチング手法(略称DPマッチング)」を用いて、パワースペクトルの距離を算出して判定するので、距離が短いほど、類似度が高いこととなる。なお、時間区間フレームごとのパワースペクトルの具体的な距離の算出としては、本実施形態ではコサイン距離を用いるがこれに限られず、本技術分野で知られたいずれの方法も用いることができる。
 ここで、上述したように最適な時間区間フレームでパワースペクトルを取ると、譜面上の同じ位置のフレームのスペクトル同士はきわめて類似度が高くなるので、演奏データの波形411と再生データの波形412とで、類似度が高いフレームを探索すれば対応するフレームを特定することができる。例えば、図4Cを参照すると、波形411と412とは、時間軸方向で相違するが、波形411の時間区間フレームのうちF14-wが、波形412のF13-mに対応しているので、F14-wとF13-mとは類似度を計算すれば最大になる。
 再生データのあるフレームが譜面上のどこに相当するかは、図4Cの再生データの波形412と譜面データ421のように、楽譜データで特定することができるので、演奏データの波形411のあるフレームが譜面のどこに相当するかも特定することができる。以上の原理により、演奏データのどの部分が譜面上の何小節に対応するかを特定することができる。
 ただし、演奏ピッチの揺らぎは、音符単位でみると高精度の検出が必要となり、実際に使用する必要性も低いことから、本実施形態では、音符ごとに波形と対応付けることはせず、少なくとも小節単位で対応を特定するようにする。
 ここで、上述のフレームの対応付けを行う際、比較するフレームが楽曲全体に広がると類似度算出処理が煩雑になるため、本実施形態では演奏データの大まかな演奏時間を取得しておいて再生コードの再生ピッチを決めるようにしている。すなわち、演奏データと再生データとが全体としてほぼ同じ程度の長さになるようなピッチで再生したときの再生データの波形を用いて上記の処理を実行するが、これに限られず類似度算出が実質的に実行できるために、事前に波形を処理したり、予測したりするなど、本技術分野で知られたい
ずれの方法も用いることができる。
 具体的には、図4AないしCに示すように時間区間フレームの対応関係が特定されれば、例えば演奏時間t1’~t2’の波形が再生時間t1~t2の波形に対応することが特定されると、再生時間t1~t2は再生データの小節時間変換表401によると小節(1)に対応するから、演奏時間t1’~t2’に対応する小節は小節(1)となる。以上のようにして、譜面全体について小節の対応を取って、音源の小節時間変換表402を作成する。
 ここで、例えばページ単位に同期をとる場合、1ページ分再生データと演奏データの各時間区間フレームの類似度を計算することにより行って、1ページ分の譜面と演奏の同期がとれれば、そこから2ページ目が開始されるとして、2ページ目の再生コードを再生したときの再生データと比較を行って類似度を算出する。これを繰り返すことにより全ページの演奏データを特定し、譜めくりすることもできるが、これに限られず一度に全体の特定をすることもできるし、1ページをいくつかの小節または組段に分けて対応フレームを算出することもできる。
 以上、MusicXMLフォーマットのデータを使用した場合で本発明の原理を説明したが、MusicXMLフォーマットのデータを使用しなくても、譜面の楽曲を譜面通りに再生したデータであって、譜面の各単位、例えば各小節との対応が取れている再生データがあれば、本発明は実施することができる。この際、再生データの再生時間は本技術分野で知られた方法で伸縮させて、演奏データに合わせることができる。
 (自動譜めくり処理)
 以下に、まず図6~図7を参照して本発明の自動譜めくり処理を説明する。
 図6は、本発明の一実施形態の自動譜めくり処理を説明するための図であり、図7は、自動譜めくり処理を示すフローチャートである。
 本実施形態では、図6に示すように端末111に、楽譜データ送信モジュール202が、MusicXML形式のデータを送信してブラウザ上に表示され(ステップ601)、表示された譜面を見て演奏者は、開始位置を指定するとともに演奏を開始すると、開始位置が楽譜管理サーバ101に送られる(ステップ602)一方、楽譜管理サーバ101は、開始位置を受け取ると、小節時間変換表402を用いて予測される演奏時間から現在演奏されている楽譜の位置を楽譜端末111に表示する(ステップ603)。その後、開始が指定されたページの最終小節を判定すると、この判定に基づいて次のページの譜面データを楽譜端末111に送信する。
 図7のフローチャートを参照して、具体的な処理を説明する。まず、楽譜管理サーバ101から楽譜データを受信して表示されている楽譜端末111に対して、演奏者は、例えば図6の指604のように譜面605上で演奏開始位置(小節番号)を指定する(ステップ701)。開始位置を受信した楽譜管理サーバ101は、演奏開始位置を起点として、演奏データによる小節時間変換表402と、楽譜管理サーバ101が持つタイマーとにより、経過時間に応じて、演奏に沿って小節に順にマークを表示し(ステップ702)、演奏者はマークを目安に演奏を行う(ステップ703)。マークは、ハイライト表示とすることもできるが、あくまで演奏の目安なので演奏の邪魔になる場合は、目立たないマークとすることが好ましい。
 このように演奏を続け、最終小節近辺に演奏が差し掛かったことを契機に、楽譜管理サーバ101は、次のページの譜面を楽譜端末111に送信して表示させることにより自動
で譜めくりする(ステップ704)。楽譜端末111に予め楽譜データまたは譜面データ全体を送信している場合には、楽譜管理サーバ101は譜めくりの指示、あるいはページの指定をするだけで、譜めくり処理をすることができる。
 ここで、譜めくりのタイミングだが、譜面の最終小節のある最下段を見て演奏している状態から、次ページの譜面の開始小節のある最上段に素早く視線を移すのは容易ではないため、通常は最終小節を一瞬記憶して暗譜で演奏しつつ譜めくり(視線を移動)したり、逆に次ページの先頭の小節を記憶しておき、最終小節を見ながら演奏してから譜めくり(視線を移動)したりするなど、演奏者ごとに工夫をしている。そこで、本実施形態でも、譜めくり、すなわち次ページ表示タイミングを、最終小節が終了した時点、終了する所定の時間前、および終了した後所定の時間後の3つのパターンを演奏者が設定することができるようになっている。
 もちろん、所定の時間も変更することができる。このようにすることにより、最終小節を記憶して早目に譜めくりすることを好む演奏者や、先頭小節を記憶しておいて、遅めに譜めくりすることを好む演奏者等に合わせて演奏しやすいように自動譜めくりを用いることができる。なお、これらのタイミングや所定の時間は、本技術分野で知られた設定方法により設定することができる。
 さらに、次ページの譜面の一部、例えば最上段のみ最下段の下に一時的に表示させ、次ページの譜面の開始がどのような流れになっているかを確認してから譜めくりすることもできる。この際、譜面の表示は全体に上にスクロールして、下部に表示空間を作ってそこに次ページの最上組段を表示することもできるし、全体的に縮小させて表示させることもできる。
 なお、本実施形態は、本発明の小節時間変換表を自動的に取得することにより、これを用いて小節時間変換表を取得して自動譜めくりを実現するものだが、この小節時間変換表は、さらにさまざまな応用分野に使用することができる。例えば、MusicXMLフォーマットのデータを楽譜管理サーバ101で管理し、端末111に送信してブラウザ上で楽譜として表示させる。この際、再生されている画像や音楽に対応する楽譜上の位置を端末111でハイライト表示することができ、これにより、現在演奏されている演奏の部分を楽譜の小節単位で知ることができるので、演奏の確認や練習に役立てることもできる。
 また、本実施形態のように楽譜データが特定された演奏データ(または動画の音声部分のデータ)があれば、小節時間変換表を作成できるので、これを用いて端末111に、MusicXML形式のデータを送信してブラウザ上に表示して再生位置を指定させて、指定された小節をサーバに知らせることによって、サーバはその小節に対応する動画や音楽の再生位置、すなわち再生時間を算出し、その位置から動画や音楽を再生するようにすることができる。
 (第2実施形態)
 本実施形態では、上述の第1実施形態と同様に演奏中に楽譜端末111に表示した楽譜の譜めくりを自動で行うものであるが、本実施形態では予め録音等は行わず、リアルタイムで同期をとって自動譜めくりを実行する。すなわち、第1実施形態では演奏データと楽譜データとの同期を予めとっておいて、その結果に基づき譜面の自動譜めくりを実現したが、本実施形態ではある譜面について演奏が開始されると、その演奏を録音して同期を取りながら、終了時間を予測して自動譜めくりするというものである。これにより、予め録音して音源解析することなく、すなわち一定の準備をすることなくリアルタイムで自動譜めくりが可能となる。
 第1実施形態の自動譜めくりは、予め同期をとって小節時間変換表を作成しておくので、例えば、オーケストラなど複数の演奏者で行う場合は、比較的演奏が安定しているので、正確な譜めくりが期待できるが、演奏者が少人数で安定した演奏が期待できない場合、譜めくりのタイミングがずれる可能性もある。一方、本実施形態の自動譜めくりは、譜面の途中までの演奏の進行から予測するので、楽曲の性格などでタイミングがずれることはあっても、演奏者のそのときの演奏テンポにはリアルタイムで合ってくるため、演奏者と楽曲の組み合わせによってはより的確な譜めくりが期待できる。
 以下に、図8~図10を参照して本発明の同期取得、自動譜めくり処理を説明する。
 図8は、本実施形態の音源と楽譜データとの同期をとる例を説明するための図であり、図9は、本実施形態の自動譜めくりの方法を説明するための図である。図10は、本実施形態の自動譜めくり処理を示すフローチャートである。
 本実施形態では、図8に示すように端末111に、楽譜データ送信モジュール202が、MusicXML形式のデータを送信してブラウザ上に表示し(ステップ801)、表示された譜面を見て演奏者が演奏を行い、それをマイクロフォンが取得すると、演奏開始位置およびその他の付加データともに、リアルタイムで、あるいは分割して音源解析サーバ102に送信する(ステップ802)。一方、楽譜管理サーバ101は、演奏データに対応する楽譜データにより生成されるMIDI音源及びその小節時間変換表を送信する(ステップ803)。音源解析サーバ102では、受信したデータを解析して、録音された演奏についての小節時間変換表または組段時間変換表を作成するが、詳細は後述する。
 本実施形態の自動譜めくり処理は、上述の通りリアルタイムで演奏データと楽譜データとの同期をとりつつ、演奏時間を判定して最終小節まで演奏が進んだと考えられるタイミングで譜めくり処理を行う。同期の取り方は基本的に上述の第1実施形態と同様に、再生データ(正確には、再生コードを再生したときに得られると考えられる音声波形であって、実際に再生する必要はない)と演奏データとの同期を波形の類似度を算出して比較し、類似度の最も高い経路を特定して行うが、波形同士の類似度を算出するなど、具体的な手法は本技術分野で知られたいずれかの方法を用いることができる。
 例えば、本実施形態では、譜面に含まれる組段ごとに同期をとっていく。具体的には、演奏者が演奏開始を指示すると、最初の組段について、所定の再生ピッチで再生させた場合の再生データを取得し、楽譜端末から送信された演奏データと類似度を算出し時間区間フレームの対応関係を特定する。ここで、所定の再生ピッチは、予め演奏者に予想される値を入力させてそれを使用するか、本技術分野で知られたいずれかの方法で予測して決定するものとする。
 同様に、所定の組段まで同様の処理を繰り返し、対応フレームを特定し、その値に基づき残りの組段から譜面の最終組段までの時間を算出し、算出された時間に基づいて譜めくり処理を行う。
 本実施形態では以上の通り、組段ごとに同期をとりつつ、複数の組段を用いて譜面1ページ分の演奏時間を判定する。これは本発明の波形の類似度を用いた同期取得方法は、サンプルが多いほど精度が上がる特性を持っているためであり、例えば図4Cの演奏データの波形411を見ても理解できるように、小節ごとに同期をとっても揺らぎが大きくて確定ピッチを特定できないが、なるべく多くの組段を用いて同期をとるとより精度の高い演奏時間の判定ができる。ただし、演奏時間を判定してから、譜めくり処理を開始しなければならないので、ぎりぎりまで同期をとっていると譜めくり処理の時間が無くなることから、計算に用いる組段の数は、精度と処理時間のバランスとを考慮して決定するものとする。
 図10のフローチャートを参照して、具体的な処理を説明する。まず、楽譜端末111は、楽譜管理サーバ101から楽譜データを受信して表示し、演奏者は演奏開始位置(小節番号)を指定した後、楽譜端末111の内蔵マイク、または外部マイクを用いて、演奏を録音開始する(ステップ1001)。次に、楽譜端末111は、録音した音源、すなわち(ウ)マイク録音の音源(T1まで)および(エ)録音開始位置(小節番号(1))を、音源解析サーバ102に送信する(ステップ1002)。ここで、T1は、例えば第1段めについて同期がとれるだけ十分の時間があればよく、システムで予め定めておくことができる。
 音源解析サーバ102は、楽譜データより得られるデータ(ア)MIDI音源と(イ)組段時間変換表とを、楽譜管理サーバ101より得る(ステップ1003)。音源解析サーバ102は、データ(ア)(イ)(ウ)(エ)より、類似検出処理による同期取得を行い、次の組段を演奏する時間を予測する(ステップ1004)。予測の結果、演奏者はページの最終組段を演奏開始するか否かを判定し(ステップ1005)、演奏が最終組段に入ると判定されると(Yes)、同期取得処理を終了し、譜めくり処理を開始する(ステップ1007)。
 ここで、上述の第1実施形態のように最終的に演奏データによる小節時間変換表を作成してもよいし、小節単位では同期をとらないので、組段について、再生データの組段時間変換表を用いて同様の変換表を作成することもできる。すなわち、組段について再生データの波形と演奏データの波形との対応関係を取得した後、図示しない演奏データの各組段の波形の開始時間が特定されると、再生データの各組段の波形を用いてそれが何組めであるかを特定し、演奏データの組段時間変換表を作成する。
 演奏が最終組段にまだ入らないと判定されると(No)、次のTx時間で録音したデータ(ウ)(エ)を、音源解析サーバ102は取得し(ステップ1006)、最終組段までステップ1003~1005を繰り返す。このようにして、T1時間で第1段めの処理が終了して図9に示すように次の組段911が推定され、さらにT2時間で取得された演奏データから次の組段912が推定される。以上を繰り返すことで、より精度を高めることができる。
 以上のようにして、譜めくり処理を開始することが判定されると、処理を実行するが、具体的な処理は、上述の第1実施形態と同様に、演奏者、楽曲、システムなどに合わせて種々のタイミングで自動譜めくりを行うことができる。すなわち、本実施形態でも、次ページの表示タイミングを、最終組段が終了した時点、終了する所定の時間前、および終了した後所定の時間後の3つのパターンを演奏者が設定することができるようになっている。もちろん、所定の時間も変更することができる。
 さらに、次ページの譜面の一部、例えば最上組段のみ最下組段の下に一時的に表示させ、次ページの譜面の開始がどのような流れになっているかを確認してから譜めくりすることもできる。この際、譜面の表示は全体に上にスクロールして、下部に表示空間を作ってそこに次ページの最上組段を表示することもできる。
 本実施形態では、組段ごとに同期をとるよう説明したが、これに限られず、所定の数の小節ごとに同期をとってもいい。
 (第3実施形態)
 本実施形態では、上述の第1および2実施形態とは異なり、自動譜めくりを行うものではないが、同様に本発明の演奏データと再生データの同期取得方法を用いるものである。
すなわち、本発明の同期取得方法を用いて、演奏の一部、例えば冒頭の数小節のデータで、その楽曲の楽譜を検索する。具体的には、演奏の一部を録音して得られた演奏データと、楽譜管理サーバ101に格納された楽譜データとを本発明の同期取得方法により同期をとって、最も類似度が高い楽譜データの譜面データを出力する。
 以下に、図11~図12を参照して本発明の同期取得、楽曲検索処理を説明する。
 図11は、本発明の一実施形態の音源と楽譜データとの同期をとって、楽曲を検索する例を説明するための図であり、図12は、本実施形態の楽曲検索処理を示すフローチャートである。
 本実施形態では、図11に示すように端末111のマイクロフォンが、演奏者の考えた特定の楽曲の一部の演奏の演奏データを取得すると、演奏開始位置とともに、音源解析サーバ102に送信する(ステップ1102)。一方、楽譜管理サーバ101は、検索対象となる複数の楽譜データについて、楽譜データにより生成されるMIDI音源及びその小節時間変換表を音源解析サーバ102に送信する(ステップ1103)。音源解析サーバ102では、受信したデータを解析して、録音された演奏についての小節時間変換表が作成される。
 以上により、演奏データの一部と楽譜管理サーバ101に記憶された複数の楽譜データの各々との同期をとって得られた類似度を評価値として用い、所定の閾値を超えているものがあれば演奏データの楽曲が特定されたとし、なければ検索は失敗したものとする。ここで閾値は、楽曲やシステム構成で最適な値を予め定めておくこととし、またこのような検索を通して学習することもできる。
 図12のフローチャートを参照して、具体的な処理を説明する。まず、演奏者は楽曲の先頭から演奏を行い、楽譜端末内蔵マイク、または外部マイクを用いて録音した演奏データを音源解析サーバ102に送信する(ステップ1201)。次に、音源解析サーバ102は、録音データから、所定時間(T1)のデータを抽出する(ステップ1202)。ここで、T1は、例えば楽曲の特定が可能なだけ十分な時間であればよく、システムで予め定めておくことができる。
 音源解析サーバ102は、楽譜データより得られるデータ(ア)MIDIデータと(イ)小節時間変換表とを、楽譜管理サーバ101より得る(ステップ1203)。音源解析サーバ102は、データ(ア)(イ)(ウ)(エ)より、類似度検出処理による同期取得を行い、類似度検出の評価値を生成する(ステップ1204)。本発明の同期取得方法で得られる最も高い類似度、すなわち演奏者が演奏した楽曲の一部のデータと、データベースの所定の(例えば、図11の楽譜A~Zのうちのいずれかの)楽譜データとの同期をとったときの最も高い類似度を所定の楽譜データの評価値とする。評価値が閾値を超えたか否かを判定し(ステップ1205)、超えたと判定されたときは(Yes)、楽曲が正しく検索されたと判定し、検索された楽譜を楽譜端末に配信して終了する(ステップ1206)。
 閾値を超えないと判定されると(No)、楽譜管理サーバ101に格納された全ての楽曲について評価値を算出したか否かを判定し(ステップ1207)、完了していないと判定されると(No)、次の楽曲について評価値を同様に算出する(ステップ1208)。完了したと判定されたときは(Yes)、録音データから、所定時間(T1+T2)のデータを追加するが(ステップ1209)、T1+T2だけデータがなければ検索できず終了する(ステップ1211)。演奏データがあれば、T1+T2時間でステップ1203以降の処理を行って検索処理を実行し、閾値を超える評価値が得られれば検索が正常になされたと判定する。
 以上のようにして、楽曲の一部のみ演奏することによって、楽譜管理サーバ101から所望の譜面を入手することができるので、例えば出だしや一部は演奏できるが、譜面がないと全曲は演奏できないような場合に、本実施形態のシステムを用いれば必要な譜面を入手してその場で全曲演奏することができる。このように、本実施形態は曲名を検索するのではなく、譜面を直接検索することにより、様々な場面で活用することができる。

Claims (16)

  1.  譜面データと、演奏データとの同期をとる譜面同期方法であって、
     前記譜面データの示す楽曲を再生したときの再生データであって、前記譜面データの所定の単位と対応付けられた再生データと、前記演奏データとのパワースペクトルを所定の時間区間フレームごとに算出するスペクトル算出ステップと、
     前記演奏データのパワースペクトルと、前記再生データのパワースペクトルとの類似度を算出して、対応する時間区間フレームを特定するフレーム特定ステップと、
     前記譜面データと前記再生データとの対応関係に基づいて、前記特定された時間区間フレームにより前記演奏データと前記譜面データとの対応関係を特定して前記演奏データの譜面上の演奏位置を取得する演奏位置取得ステップと
     を備えることを特徴とする譜面同期方法。
  2.  前記再生データは、前記譜面データとともに楽譜データに含まれる再生コード用いて取得することを特徴とする請求項1に記載の譜面同期方法。
  3.  前記再生コードはMIDI形式であり、前記パワースペクトルは、前記演奏データまたは前記再生データのPCM信号から前記時間区間フレームごとに算出することを特徴とする請求項2に記載の譜面同期方法。
  4.  前記パワースペクトル同士の類似度は、コサイン距離を用いて算出することを特徴とする請求項1ないし3のいずれかに記載の譜面同期方法。
  5.  前記楽譜データに含まれる前記譜面データの示す楽曲の、前記演奏データにおける演奏時間を取得し、前記再生コードを再生したときの再生データの再生時間が、略同一になるような再生ピッチを算出するピッチ算出ステップをさらに備え、
     前記再生データは、前記再生コードを、前記算出されたピッチで再生したときのデータであることを特徴とする請求項2ないし4のいずれかに記載の譜面同期方法。
  6.  譜面データを表示する譜面表示方法であって、
     前記譜面データに含まれる所定のページの譜面を表示するステップと、
     前記譜面データの示す楽曲を再生したときの再生データであって、前記譜面データの所定の単位と対応付けられた再生データと、該譜面データに基づいて予めなされた演奏を記録した演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて、対応する時間区間フレームを特定して取得した前記演奏データの譜面上の演奏位置に基づいて、前記所定のページの演奏が終了するタイミングで次のページの譜面を表示する譜めくりステップと
     を備えたことを特徴とする譜面表示方法。
  7.  譜面データを表示する譜面表示方法であって、
     譜面データの所定のページを表示する表示ステップと、
     前記表示ステップにより表示された譜面に基づいてなされた演奏の演奏データを記録する演奏記録ステップと、
     前記譜面データの示す楽曲を再生したときの再生データであって、前記譜面データの所定の単位と対応付けられた再生データと、前記演奏記録ステップにより記録された演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて、対応する時間区間フレームを特定して取得した前記演奏データの譜面上の演奏位置に基づいて、前記所定のページの演奏が終了するタイミングで次のページの譜面を表示する譜めくりステップと
     を備えたことを特徴とする譜面表示方法。
  8.  前記譜めくりステップは、前記取得した前記演奏データの譜面上の演奏位置に基づいて、前記所定のページの譜面の最終小節の演奏が終了すると、次のページの譜面を表示することを特徴とする請求項6または7に記載の譜面表示方法。
  9.  前記譜めくりステップは、前記取得した前記演奏データの譜面上の演奏位置に基づいて、前記所定のページの譜面の最終小節の演奏が終了する所定の時間前に、次のページの譜
    面を表示することを特徴とする請求項6または7に記載の譜面表示方法。
  10.  前記譜めくりステップは、前記取得した前記演奏データの譜面上の演奏位置に基づいて、前記所定のページの譜面の最終小節の演奏が終了した後所定の時間後に、次のページの譜面を表示することを特徴とする請求項6または7に記載の譜面表示方法。
  11.  前記所定のページの譜面の最終小節の演奏が終了する所定の時間前に、次のページの譜面の第1段を、前記最終小節を含む組段の下部に表示する予定譜面表示ステップをさらに備えたことを特徴とする請求項6ないし10のいずれかに記載の譜面表示方法。
  12.  前記演奏の進行に同期して、演奏されている譜面上の位置を表示することを特徴とする請求項6ないし11のいずれかに記載の譜面表示方法。
  13.  譜面データを表示する譜面表示装置であって、
     前記譜面データおよび前記譜面データの示す楽曲を再生したときの再生データであって、前記譜面データの所定の単位と対応付けられた再生データを記憶した譜面データ記録手段と、
     前記譜面データに基づいて予めなされた演奏を記録した演奏データを記憶した演奏データ記憶手段と、
     前記譜面データ記憶手段から前記譜面データを取得して、該譜面データに含まれる所定のページの譜面を表示する表示手段と
     を備え
     前記譜面データと、前記演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて取得した前記演奏データの譜面上の演奏位置に基づいて、前記所定のページの演奏が終了するタイミングで次のページの譜面を前記表示手段に表示することを特徴とする譜面表示装置。
  14.  譜面データを表示する譜面表示装置であって、
     前記譜面データおよび前記譜面データの示す楽曲を再生したときの再生データであって、前記譜面データの所定の単位と対応付けられた再生データを記憶した譜面データ記録手段と、
     前記譜面データ記憶手段から前記譜面データを取得して、該譜面データに含まれる所定のページの譜面を表示する表示手段と、
     前記表示手段に表示された所定のページの譜面に基づいてなされる演奏の演奏データを記録する演奏記録手段と
     を備え、
     前記譜面データと、前記演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて取得した前記演奏データの譜面上の演奏位置に基づいて、次のページの譜面を前記表示手段に表示することを特徴とする譜面表示装置。
  15.  データベースに格納された、譜面データを検索する譜面検索方法であって、
     楽曲の一部の演奏の演奏データを記録する演奏記録ステップと、
     前記データベースから前記譜面データおよび前記譜面データの示す楽曲を再生したときの再生データであって、前記譜面データの所定の単位と対応付けられた再生データを読み出して、該再生データと、前記演奏記録ステップで記録された演奏データとを請求項1ないし5のいずれかに記載の譜面同期方法を用いて類似度を算出する類似度取得ステップと、
     前記類似度取得ステップにより、最も高い類似度を取得した譜面データを抽出する最類似抽出ステップと
     を備えたことを特徴とする譜面検索方法。
  16.  譜面データを検索する譜面検索装置であって、
     譜面データおよび前記譜面データの示す楽曲を再生したときの再生データであって、前記譜面データの所定の単位と対応付けられた再生データを格納したデータベースと、
     楽曲の一部の演奏の演奏データを記録する演奏記録手段と、
     前記データベースから再生データを読み出して、前記演奏記録ステップで記録された演奏データと請求項1ないし5のいずれかに記載の譜面同期方法を用いて類似度を算出する類似度取得手段と、
     前記類似度取得ステップにより、最も高い類似度を取得した譜面データを抽出する最類似抽出手段と
     を備えたことを特徴とする譜面検索装置。
PCT/JP2018/018426 2017-05-12 2018-05-11 譜面自動検出方法および装置 WO2018207936A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019517731A JPWO2018207936A1 (ja) 2017-05-12 2018-05-11 譜面自動検出方法および装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-095194 2017-05-12
JP2017095194 2017-05-12

Publications (1)

Publication Number Publication Date
WO2018207936A1 true WO2018207936A1 (ja) 2018-11-15

Family

ID=64105308

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/018426 WO2018207936A1 (ja) 2017-05-12 2018-05-11 譜面自動検出方法および装置

Country Status (2)

Country Link
JP (1) JPWO2018207936A1 (ja)
WO (1) WO2018207936A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113727A (ja) * 2017-12-25 2019-07-11 株式会社デザインMプラス 楽譜提供方法およびプログラム
WO2022070392A1 (ja) * 2020-10-01 2022-04-07 AlphaTheta株式会社 楽曲解析装置、楽曲解析方法およびプログラム
WO2023191322A1 (en) * 2022-03-30 2023-10-05 Samsung Electronics Co., Ltd. Method and apparatus for implementing virtual performance partner

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736455A (ja) * 1993-07-22 1995-02-07 Nec Corp 音楽イベントインデックス作成装置
JP2000231379A (ja) * 1999-02-12 2000-08-22 Ntt Data Corp 電子譜面台及び電子譜面の表示方法
JP2002006835A (ja) * 2000-06-21 2002-01-11 Yamaha Corp データ表示方法およびデータ表示装置
JP2003223166A (ja) * 2002-01-30 2003-08-08 Yamaha Corp 情報処理装置およびその楽譜頁変更方法、楽譜表示用プログラムおよび記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736455A (ja) * 1993-07-22 1995-02-07 Nec Corp 音楽イベントインデックス作成装置
JP2000231379A (ja) * 1999-02-12 2000-08-22 Ntt Data Corp 電子譜面台及び電子譜面の表示方法
JP2002006835A (ja) * 2000-06-21 2002-01-11 Yamaha Corp データ表示方法およびデータ表示装置
JP2003223166A (ja) * 2002-01-30 2003-08-08 Yamaha Corp 情報処理装置およびその楽譜頁変更方法、楽譜表示用プログラムおよび記録媒体

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HU , N. ET AL.: "Polyphonic Audio Matching and Alignment for Music Retrieval", PROC. WASPAA ' 03, October 2003 (2003-10-01), pages 185 - 188, XP010697933 *
SOULEZ, F. ET AL.: "Improving Polyphonic and Poly- Instrumental Music to Score Alignment", PROC. ISMIR 2003, October 2003 (2003-10-01), XP055186967 *
TURETSKY, R. J. ET AL.: "Ground-Truth Transcriptions of Real Music from Force-Aligned MIDI Syntheses", PROC. ISMIR 2003, October 2003 (2003-10-01), XP055186954 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019113727A (ja) * 2017-12-25 2019-07-11 株式会社デザインMプラス 楽譜提供方法およびプログラム
WO2022070392A1 (ja) * 2020-10-01 2022-04-07 AlphaTheta株式会社 楽曲解析装置、楽曲解析方法およびプログラム
JP7512406B2 (ja) 2020-10-01 2024-07-08 AlphaTheta株式会社 楽曲解析装置、楽曲解析方法およびプログラム
WO2023191322A1 (en) * 2022-03-30 2023-10-05 Samsung Electronics Co., Ltd. Method and apparatus for implementing virtual performance partner

Also Published As

Publication number Publication date
JPWO2018207936A1 (ja) 2020-07-16

Similar Documents

Publication Publication Date Title
JP2007199306A (ja) ビート抽出装置及びビート抽出方法
CN1937462A (zh) 内容偏好得分确定方法、内容重放装置及内容重放方法
WO2018207936A1 (ja) 譜面自動検出方法および装置
JP2006195385A (ja) 音楽再生装置および音楽再生プログラム
JP2009244789A (ja) ガイドボーカル生成機能を備えるカラオケシステム
JP4479701B2 (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
JP5151245B2 (ja) データ再生装置、データ再生方法およびプログラム
JP3996565B2 (ja) カラオケ装置
JP2004233698A (ja) 音楽支援装置、音楽支援サーバ、音楽支援方法およびプログラム
JP4399958B2 (ja) 演奏支援装置および演奏支援方法
JP2007072023A (ja) 情報処理装置及び情報処理方法
JP5012263B2 (ja) 演奏クロック生成装置、データ再生装置、演奏クロック生成方法、データ再生方法およびプログラム
JP5311069B2 (ja) 歌唱評価装置及び歌唱評価プログラム
JP5092589B2 (ja) 演奏クロック生成装置、データ再生装置、演奏クロック生成方法、データ再生方法およびプログラム
JP5109426B2 (ja) 電子楽器及びプログラム
JPH1031495A (ja) カラオケ装置
JP2008003483A (ja) カラオケ装置
JP5338312B2 (ja) 自動演奏同期装置、自動演奏鍵盤楽器およびプログラム
JP2008197269A (ja) データ再生装置、データ再生方法およびプログラム
JP4048249B2 (ja) カラオケ装置
JP5969421B2 (ja) 楽器音出力装置及び楽器音出力プログラム
KR101790998B1 (ko) 악보전환방법 및 악보전환장치
JP2005107332A (ja) カラオケ装置
JP2015060203A (ja) 演奏データとオーディオデータの同期装置、方法、およびプログラム
JP6144593B2 (ja) 歌唱採点システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18798311

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019517731

Country of ref document: JP

Kind code of ref document: A

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 17/02/2020)

122 Ep: pct application non-entry in european phase

Ref document number: 18798311

Country of ref document: EP

Kind code of ref document: A1