WO2022190453A1 - 運指提示装置、訓練装置、運指提示方法および訓練方法 - Google Patents

運指提示装置、訓練装置、運指提示方法および訓練方法 Download PDF

Info

Publication number
WO2022190453A1
WO2022190453A1 PCT/JP2021/040273 JP2021040273W WO2022190453A1 WO 2022190453 A1 WO2022190453 A1 WO 2022190453A1 JP 2021040273 W JP2021040273 W JP 2021040273W WO 2022190453 A1 WO2022190453 A1 WO 2022190453A1
Authority
WO
WIPO (PCT)
Prior art keywords
note
fingering
notes
information
finger
Prior art date
Application number
PCT/JP2021/040273
Other languages
English (en)
French (fr)
Inventor
正博 鈴木
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to JP2023505094A priority Critical patent/JPWO2022190453A1/ja
Priority to CN202180095314.2A priority patent/CN116940978A/zh
Publication of WO2022190453A1 publication Critical patent/WO2022190453A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/02Chord or note indicators, fixed or adjustable, for keyboard of fingerboards

Definitions

  • the present invention relates to a fingering presentation device, a training device, a fingering presentation method, and a training method for presenting fingerings for playing a musical instrument.
  • Patent Document 2 describes a fingering determination method for determining the fingering for each note in a note sequence based on a probability model. JP 2013-083845 A JP 2007-241034 A
  • Patent Document 2 the player can recognize the fingering in playing the musical instrument based on the probability model.
  • the probability model there are countless combinations of fingerings, and there is more than one optimum fingering for playing a piece of music. Therefore, it is desirable to present more appropriate fingerings.
  • An object of the present invention is to provide a fingering presentation device, a training device, a fingering presentation method, and a training method capable of presenting appropriate fingerings for playing a musical instrument.
  • a fingering presentation device uses a receiving unit that receives time-series data including a string of notes made up of a plurality of notes, and a trained model to play at least some of the notes included in the string of notes with a musical instrument.
  • an estimating unit for estimating finger information indicating a finger to be used for playing or note information indicating a note to which fingering is to be applied from a string of notes;
  • a training apparatus comprises: a first acquisition unit that acquires input time-series data including a reference note string consisting of a plurality of notes; a second acquisition unit that acquires output finger information indicating a finger used when fingering is performed, or output note information indicating a note to which fingering is to be applied from a reference note string; a builder for building a trained model that has learned the input-output relationship between the output note information.
  • a fingering presentation method accepts time-series data including a string of notes, and uses a trained model to play at least a portion of the notes included in the string of notes with a musical instrument. Fingering information indicating a finger to be used when performing fingering or note information indicating a note to which fingering is to be applied is estimated from a string of notes, and executed by a computer.
  • a training method obtains input time-series data including a reference string of notes, and uses the musical instrument to play at least some of the notes included in the reference string. Acquire the output fingering information indicating the fingering or the output note information indicating the note to which fingering is applied from the reference note string, and determine the input/output relationship between the input time series data and the output fingering information or output note information.
  • a learned and trained model is built and executed by the computer.
  • FIG. 1 is a block diagram showing the configuration of a processing system including a fingering presentation device and a training device according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of each training data.
  • FIG. 3 is a block diagram showing the configuration of the training device and the fingering presentation device.
  • FIG. 4 shows an example of an auxiliary musical score displayed on the display unit.
  • FIG. 5 is a flow chart showing an example of training processing by the training device of FIG.
  • FIG. 6 is a flowchart showing an example of fingering presentation processing by the fingering presentation device of FIG.
  • FIG. 7 is a diagram showing another example of input time-series data.
  • FIG. 8 is a diagram showing an example of input time-series data in the modified example.
  • FIG. 1 is a block diagram showing the configuration of a processing system including a fingering presentation device and a training device according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of each training data.
  • FIG. 9 is a diagram showing an example of output finger information in the modified example.
  • FIG. 10 is a diagram showing an example of input time-series data in the second embodiment.
  • FIG. 11 is a diagram showing an example of output finger information according to the third embodiment.
  • FIG. 12 is a flowchart showing an example of fingering presentation processing in the modified example.
  • FIG. 13 is a diagram showing an example of finger information estimated in step S24 of the fingering presentation process.
  • FIG. 1 is a block diagram showing the configuration of a processing system including a fingering presentation device and a training device according to the first embodiment of the present invention.
  • the processing system 100 includes a RAM (random access memory) 110, a ROM (read only memory) 120, a CPU (central processing unit) 130, a storage section 140, an operation section 150 and a display section 160. .
  • RAM random access memory
  • ROM read only memory
  • CPU central processing unit
  • the processing system 100 is implemented by a computer such as a personal computer, tablet terminal, or smart phone.
  • the processing system 100 may be realized by cooperative operation of a plurality of computers connected by a communication path such as Ethernet, or may be realized by an electronic musical instrument such as an electronic piano having performance functions.
  • the RAM 110 , ROM 120 , CPU 130 , storage section 140 , operation section 150 and display section 160 are connected to the bus 170 .
  • the training device 10 and the fingering presentation device 20 are configured by the RAM 110 , the ROM 120 and the CPU 130 .
  • training device 10 and fingering presentation device 20 are configured by common processing system 100, but may be configured by separate processing systems.
  • the RAM 110 consists of, for example, a volatile memory, and is used as a work area for the CPU 130.
  • the ROM 120 is, for example, a non-volatile memory and stores a training program and a fingering presentation program.
  • CPU 130 performs a training process by executing a training program stored in ROM 120 on RAM 110 . Further, the CPU 130 performs fingering presentation processing by executing a fingering presentation program stored in the ROM 120 on the RAM 110 . Details of the training process and the fingering presentation process will be described later.
  • the training program or the fingering presentation program may be stored in the storage unit 140 instead of the ROM 120.
  • the training program or fingering presentation program may be provided in a form stored in a computer-readable storage medium and installed in ROM 120 or storage unit 140 .
  • a training program or a fingering presentation program distributed from a server (including a cloud server) on the network is installed in the ROM 120 or the storage unit 140.
  • the storage unit 140 includes a storage medium such as a hard disk, an optical disk, a magnetic disk, or a memory card, and stores a trained model M and a plurality of training data D.
  • the trained model M or each piece of training data D may not be stored in the storage unit 140, but may be stored in a computer-readable storage medium.
  • the trained model M or respective training data D may be stored on a server on that network.
  • the trained model M is a machine learning model trained to present fingerings when a user of the fingering presentation device 20 (hereinafter referred to as a performer) plays a musical piece. and is constructed using a plurality of training data D.
  • a user of the training device 10 can generate the training data D by operating the operation unit 150 .
  • the training data D is data created based on the playing knowledge or playing style of the reference performer.
  • the reference performer has a relatively high level of skill in playing the piece of music.
  • a reference performer may be the performer's mentor or teacher in the performance of the musical composition.
  • the training data D indicates a set of input time-series data and output instruction information.
  • the input time-series data indicates a reference note string consisting of a plurality of notes.
  • the input time-series data may be image data representing images of musical scores.
  • the output fingering information indicates the fingers of the reference performer to be used when playing each note of the reference note string by the musical instrument, and can be used to present fingerings when playing the reference note string.
  • the output finger information may be a unique number assigned to each finger. In this example, numbers “1" to "5" are given to the thumb, index finger, middle finger, ring finger and little finger, respectively.
  • the input time-series data further includes a reference player identifier that indicates the classification (category) of the reference player who performs the reference note string.
  • the reference player identifier is determined differently for each of at least one of the physical characteristics of the reference player and the style of performance by the reference player.
  • the physical characteristics of the reference player include, for example, the reference player's hand size (finger length), age, gender, or whether the player is an adult or a child.
  • FIG. 2 is a diagram showing an example of each training data D.
  • FIG. 2 shows part of the input time-series data and the output finger information when the reference player plays the piano.
  • input time-series data A includes elements A0 to A16.
  • the element A0 corresponds to a reference performer identifier, and is represented by a different character string for at least one of the reference performer's physical characteristics and the reference performer's style of performance.
  • Elements A1 to A16 correspond to reference note strings.
  • the element A0 is placed at the beginning of the input time-series data A, that is, before the reference note string (elements A1 to A16), but it may be placed at any position in the input time-series data A.
  • the elements A1 to A4 mean that the key of number '66' is pressed and maintained for 13 units of time, and then the key of number '66' is released and maintained for 2 units of time.
  • the output finger information B includes elements B0 to B16 corresponding to the elements A0 to A16 of the input time-series data A, respectively.
  • Element B0 indicates a reference player identifier and is represented by the same character string as element A0.
  • the training data D in FIG. 2 is generated to indicate left hand fingering, the embodiment is not limited to this.
  • the training data D may be generated to indicate the fingerings of the right hand, or may be generated to indicate the fingerings of each of the left and right hands.
  • Elements of the input time-series data A and the output finger information B for indicating the fingering of the right hand may use, for example, "R" instead of the letter "L”.
  • FIG. 3 is a block diagram showing the configuration of the training device 10 and the fingering presentation device 20.
  • the training device 10 includes a first acquisition unit 11, a second acquisition unit 12, and a construction unit 13 as functional units.
  • the functional units of the training device 10 are implemented by the CPU 130 of FIG. 1 executing the training program. At least part of the functional units of the training device 10 may be realized by hardware such as an electronic circuit.
  • the first acquisition unit 11 acquires the input time-series data A from each training data D stored in the storage unit 140 or the like.
  • the second acquisition unit 12 acquires output finger information B from each piece of training data D.
  • the construction unit 13 uses the input time-series data A acquired by the first acquisition unit 11 as an input element and the output finger information B acquired by the second acquisition unit 12 as an output element. Do machine learning. By repeating machine learning for a plurality of pieces of training data D, the building section 13 builds a trained model M that indicates the input/output relationship between the input time-series data A and the output finger information B.
  • the building unit 13 builds the trained model M by training the Transformer, but the embodiment is not limited to this.
  • the construction unit 13 may construct the trained model M by training a machine learning model of another method that handles time series.
  • the trained model M constructed by the construction unit 13 is stored in the storage unit 140, for example.
  • the trained model M constructed by the construction unit 13 may be stored in a server or the like on the network.
  • the fingering presentation device 20 includes a reception unit 21, an estimation unit 22, and a generation unit 23 as functional units.
  • the functional units of the fingering presentation device 20 are implemented by the CPU 130 of FIG. 1 executing the fingering presentation program. At least part of the functional units of the fingering presentation device 20 may be realized by hardware such as an electronic circuit.
  • the reception unit 21 receives time-series data including a string of notes made up of a plurality of notes.
  • the performer can give image data representing an image of the musical score to the reception unit 21 as time-series data.
  • the performer can generate time-series data by operating the operation unit 150 and provide it to the reception unit 21 .
  • the time-series data has the same configuration as the input time-series data A in FIG. 2, and further includes a performer identifier that indicates the classification (category) of the performer who plays the string of notes.
  • the performer identifier is determined differently for each of at least one of the performer's physical characteristics and the performer's performance style.
  • the player's physical characteristics include, for example, the player's hand size, age, gender, or whether the player is an adult or a child.
  • the estimation unit 22 estimates finger information using the trained model M stored in the storage unit 140 or the like.
  • the finger information indicates the player's finger used when playing each note of the note string accepted by the accepting unit 21, and is estimated based on the note string and the player identifier.
  • the finger information may be a unique number given to each finger.
  • the generation unit 23 generates score information based on the musical note sequence of the time-series data received by the reception unit 21 and the finger information estimated by the estimation unit 22 .
  • the display unit 160 displays an auxiliary musical score based on the musical score information generated by the generating unit 23 .
  • FIG. 4 shows an example of an auxiliary musical score displayed on the display unit 160.
  • the supporting musical score indicates the finger information estimated by the estimation unit 22 so as to correspond to each note of the note string received by the reception unit 21 .
  • the finger numbers of one hand are shown as the finger information.
  • a predetermined letter such as "L” is attached near the finger numbers of the left hand, and another letter such as "R” is attached near the finger numbers of the right hand.
  • Predetermined characters may be attached.
  • the finger numbers of the left hand or the corresponding musical notes may be given a predetermined color such as red, and the finger numbers or the corresponding musical notes of the right hand may be given another predetermined color such as blue.
  • FIG. 5 is a flowchart showing an example of training processing by the training device 10 of FIG.
  • the training process in FIG. 5 is performed by CPU 130 in FIG. 1 executing a training program.
  • the first acquisition unit 11 acquires the input time-series data A from each training data D (step S1).
  • the second acquisition unit 12 acquires the output finger information B from each training data D (step S2). Either of steps S1 and S2 may be performed first, or may be performed simultaneously.
  • the constructing unit 13 performs machine learning on each piece of training data D using the input time-series data A obtained in step S1 as an input element and the output finger information B obtained in step S2 as an output element (step S3). Subsequently, the construction unit 13 determines whether or not sufficient machine learning has been performed (step S4). If the machine learning is insufficient, the construction unit 13 returns to step S3. Steps S3 and S4 are repeated while changing the parameters until sufficient machine learning is performed. The number of iterations of machine learning changes according to quality conditions that the trained model M to be constructed should satisfy.
  • the construction unit 13 saves the input/output relationship between the input time-series data A and the output finger information B learned by the machine learning in step S3 as a trained model M (step S5). This completes the training process.
  • FIG. 6 is a flowchart showing an example of fingering presentation processing by the fingering presentation device 20 of FIG.
  • the fingering presentation process of FIG. 6 is performed by the CPU 130 of FIG. 1 executing the fingering presentation program.
  • the receiving unit 21 receives time-series data (step S11).
  • the estimation unit 22 estimates finger information from the time-series data received in step S11 using the trained model M saved in step S5 of the training process (step S12).
  • the generation unit 23 After that, the generation unit 23 generates musical score information based on the note sequence of the time-series data received in step S11 and the finger information estimated in step S12 (step S13). An auxiliary musical score may be displayed on the display unit 160 based on the generated musical score information. This completes the fingering presentation process.
  • the fingering presentation device 20 includes the receiving unit 21 that receives time-series data including a string of notes composed of a plurality of notes, and the trained model M and an estimating unit 22 for estimating finger information indicating a finger to be used when each note in the string of notes is played by the musical instrument.
  • the trained model M is used to estimate appropriate finger information from the temporal flow of multiple notes in the time-series data. This makes it possible to present appropriate fingerings for playing a musical instrument.
  • the trained model M is input between input time-series data A including a reference note string consisting of a plurality of notes and output fingering information B indicating the finger used when playing each note of the reference note string with a musical instrument. It may be a machine learning model that has learned the output relationship. In this case, finger information can be easily estimated from time-series data.
  • the time-series data may further include a player identifier indicating the player who plays the string of notes, and the estimation unit 22 may estimate finger information based on the player identifier. In this case, appropriate finger information can be estimated according to the player.
  • the performer identifier may be determined to correspond to the physical characteristics of the performer. In this case, appropriate finger information can be estimated according to the player's physical characteristics.
  • the performer identifier may be determined so as to correspond to the performance style of the performer. In this case, appropriate finger information can be estimated according to the performance style of the player.
  • the fingering presentation device 20 may further include a generating unit that generates musical score information indicating an auxiliary musical score to which finger information is attached so as to correspond to each note of the note string.
  • a generating unit that generates musical score information indicating an auxiliary musical score to which finger information is attached so as to correspond to each note of the note string.
  • the performer can easily recognize the finger corresponding to each note of the note string by visually recognizing the supporting musical score.
  • the training apparatus 10 includes a first acquisition unit 11 that acquires input time-series data A including a reference note string consisting of a plurality of notes, and a A second acquisition unit 12 that acquires output finger information B indicating a finger to be used, and a construction unit 13 that constructs a trained model M that has learned the input/output relationship between the input time-series data A and the output finger information B. and According to this configuration, a trained model M that has learned the input/output relationship between the input time-series data A and the output finger information B can be easily constructed.
  • the input time-series data A includes reference player identifiers, and the time-series data includes player identifiers, but the embodiment is not limited to this.
  • the input time-series data A may include the reference note string, and may not include the reference player identifier.
  • the time-series data only needs to include a string of musical notes, and does not have to include a player identifier.
  • the input time-series data A and the output finger information B are described on a so-called motion basis, which indicates key depression or key release in the MIDI (Musical Instrument Digital Interface) standard. is not limited to this.
  • the input time-series data A and the output finger information B may be described in other methods.
  • the input time-series data A and the output finger information B may be described on a so-called note basis, which indicates the start position of a note or the length of a note in the MIDI standard. The same applies to time-series data and finger information.
  • FIG. 7 is a diagram showing another example of input time-series data A.
  • FIG. The upper part of FIG. 7 shows input time-series data A(Ax) described on a motion basis.
  • the middle part of FIG. 7 shows the input time-series data A (Ay) described on a note basis.
  • the input time-series data Ax and the input time-series data Ay include the same reference note string (the reference note string in the musical score shown at the bottom of FIG. 7).
  • "bar" and "beat" in the input time-series data Ax, Ay are elements indicating the metrical structure of the reference note string.
  • the length of the input time-series data A is shortened by describing the input time-series data A on a musical note basis. This makes it possible to process longer input time-series data A easily.
  • the output finger information B corresponding to the input time-series data A is obtained by inserting an element indicating the finger number immediately after the element indicating the pitch number in the input time-series data A ("note_ ⁇ "). can be described.
  • the input time-series data A and the output finger information B may be described by a system representing musical scores.
  • the details of the input time-series data A and the output finger information B described by the method of representing musical scores will be described in the following modifications.
  • FIG. 8 is a diagram showing an example of input time-series data A in a modification.
  • the upper part of FIG. 8 shows the input time-series data A (Az) described by the musical score representation method.
  • a musical score represented by the input time-series data A is shown in the lower part of FIG.
  • the input time-series data Az includes multiple elements A0 to A24. Some elements have attributes. Attributes of an element are written behind the element (after the underscore).
  • the element A0 indicates the ratio of notes to which fingering is applied among the notes included in the reference note string.
  • the element A0 is placed before the beginning of the input time-series data Az, but may be placed at any position in the input time-series data Az.
  • the ratio is specified by the "fingerrate" attribute of the element A0.
  • Attribute "5" in this example means a percentage of 100%. The percentage may have a range or be divided into multiple ranges, such as 20-40% or 40-60%.
  • Element A1 indicates a part.
  • the element A1 is arranged immediately after the element A0, but may be arranged at any position in the input time-series data Az.
  • element A1 "R” and “L” indicate right and left hand parts respectively.
  • the element corresponding to the right hand is placed after the "R”.
  • An “L” is placed after it, and an element corresponding to the left hand is placed after the "L”.
  • the "R” and the right-hand corresponding element may be placed after the left-hand corresponding element. If the parts are not distinguished, the input time-series data Az does not include the element A1.
  • Elements A2, A15, and A24 indicate bar lines of the musical score. Therefore, in the example of FIG. 8, the range delimited by “bar” in element A2 and “bar” in element A15 corresponds to the first measure. The range delimited by "bar” in element A15 and “bar” in element A24 corresponds to the second bar.
  • Element A3 indicates the clef of the score.
  • the clef type is specified by the attribute of "clef" in the element A3.
  • the treble clef is specified as the clef by the element A3.
  • the bass clef is specified as the clef by the element A3.
  • Element A4 indicates the time signature of the musical score.
  • the type of time signature is specified by the "time” attribute of the element A4.
  • the attribute is “4/4", so element A4 specifies "4/4" as the time signature.
  • the direction of the note stems in the score is specified by other attributes of "len” in the elements A6, A10, A12, A14, A17, A19, and A21. If the other attribute is “down”, the stem extends downward from the notehead. If the other attribute is “up”, the stem extends up from the note head.
  • the start position, intermediate position and end position of the beam are further attributes of "len” in elements A10, A12 and A14. Specified by “start”, “continue” and “stop” respectively.
  • a rest in the reference note string is specified by “rest” in elements A7 and A22.
  • the note value of the rest is described by the "len” attribute in the elements A8 and A23.
  • elements A5 and A6 indicate note N1
  • elements A7 and A8 indicate rest R1.
  • Elements A9 and A10 represent note N2
  • elements A11 and A12 represent note N3
  • elements A13 and A14 represent note N4.
  • Elements A16 and A17 indicate note N5, and elements A18 and A19 indicate note N6.
  • Elements A20 and A21 indicate note N7, and elements A22 and A23 indicate rest R2.
  • FIG. 9 is a diagram showing an example of output finger information B in a modified example.
  • the upper part of FIG. 9 shows the output finger information B (Bz) written in a musical score representation format.
  • the output finger information Bz corresponds to the input time-series data Az in FIG.
  • the lower part of FIG. 9 shows the musical score represented by the output finger information Bz.
  • the output finger information Bz includes a plurality of elements B0-B24.
  • the output finger information Bz further includes elements B5f, B9f, B11f, B13f, B16f, B18f, and B20f arranged immediately after the elements B5, B9, B11, B13, B16, B18, and B20, respectively.
  • Elements B0 to B24 are the same as elements A0 to A24 of input time-series data Az in FIG. 8, respectively. Therefore, the first acquisition unit 11 in FIG. 3 can acquire the input time-series data Az by deleting the elements B5f, B9f, B11f, B13f, B16f, B18f, and B20f from the output finger information Bz.
  • Elements B5f, B9f, B11f, B13f, B16f, B18f, and B20f respectively indicate the finger numbers used when the notes corresponding to the immediately preceding elements B5, B9, B11, B13, B16, B18, and B20 are played by the musical instrument. show.
  • the "finger" attribute of the elements B5f, B9f, B11f, B13f, B16f, B18f, and B20f designates the finger number. Therefore, the elements B5f, B9f, B11f, B13f, B16f, B18f, and B20f, as shown in the lower part of FIG. 2”, “1”, “3”, “3” and “2” are written on the score respectively.
  • the generation unit 23 may generate a moving image file showing finger movements by animation or the like, based on the finger information estimated by the estimation unit 22 . This makes it possible to visualize finger movements. Generation of such a moving image file may be performed before or after step S13 in the fingering presentation process of FIG. 6, may be performed in parallel with step S13, or may be performed instead of step S13. may
  • the estimating unit 22 selects some of the notes included in the note string to which fingering is to be applied, and the fingering information for that part of the notes. presume. In this case, it is possible to present appropriate fingerings for a beginner-level or intermediate-level player who is higher than the introductory level to play the musical instrument. In this configuration, the output finger information Bz does not include some of the elements B5f, B9f, B11f, B13f, B16f, B18f and B20f.
  • the estimation unit 22 may estimate the note information indicating the note to which fingering is to be applied from the note sequence without estimating the finger information. Details will be described in a third embodiment, which will be described later.
  • Second Embodiment (1) Processing System Regarding a processing system 100 according to a second embodiment, differences from the processing system 100 according to the first embodiment will be described.
  • the first acquisition unit 11 and the second acquisition unit 12 acquire the input time-series data A and the output finger information B of the training data D, respectively.
  • FIG. 10 is a diagram showing an example of input time-series data A in the second embodiment.
  • the upper part of FIG. 10 shows the input time-series data Az described by the musical score representation method.
  • the lower part of FIG. 10 shows the musical score represented by the input time-series data Az.
  • the input time-series data Az includes multiple elements A0 to A24. Elements A0 to A24 in FIG. 10 are the same as elements A0 to A24 in the modification (FIG. 8) of the first embodiment, respectively. Also, the input time-series data Az includes additional elements arranged immediately after parts of the elements A5, A9, A11, A13, A16, A18, and A20 corresponding to musical notes. In the example of FIG. 10, the input time-series data Az further includes elements A5f, A11f, A16f, and A20f arranged immediately after elements A5, A11, A16, and A20, respectively.
  • Elements A5f, A11f, A16f, and A20f are fingering information (hereinafter referred to as basic fingering information) indicating the finger numbers used when playing the notes corresponding to the immediately preceding elements A5, A11, A16, and A20. ).
  • the "finger" attribute of the elements A5f, A11f, A16f, and A20f designates the finger number. Therefore, the elements A5f, A11f, A16f, and A20f, as shown in the lower part of FIG. "2" is written in each musical score.
  • the output finger information Bz in the present embodiment is the same as the output finger information Bz in the modified example (FIG. 9) of the first embodiment. Therefore, the first acquisition unit 11 can acquire the input time-series data Az by randomly deleting some of the elements B5f, B9f, B11f, B13f, B16f, B18f, and B20f from the output finger information Bz. can.
  • the user of the training device 10 can specify the ratio of the elements B5f, B9f, B11f, B13f, B16f, B18f, and B20f to be deleted by operating the operation unit 150 in FIG.
  • the input time-series data Az is obtained by deleting the elements B9f, B13f, and B18f from the output finger information Bz.
  • Elements B5f, B11f, B16f, and B20f that are not deleted remain as elements A5f, A11f, A16f, and A20f, which are basic finger information.
  • the construction unit 13 in FIG. 3 performs machine learning using the input time-series data Az as an input element and the output finger information Bz as an output element. By repeating machine learning for a plurality of training data D, a trained model M representing the input/output relationship between the input time-series data Az and the output finger information Bz is constructed.
  • the reception unit 21 receives the time-series data.
  • the time-series data further includes basic finger information indicating fingers used to play some of the notes included in the note string with the musical instrument.
  • the estimating unit 22 estimates finger information indicating fingers to be used when playing notes included in the note sequence with a musical instrument.
  • the generation unit 23 generates musical score information based on the note sequence and finger information of the time-series data.
  • the generation unit 23 may generate a moving image file showing finger movements by animation or the like. In this case, finger movements can be visualized.
  • the estimating section 22 estimates finger information for all notes included in the sequence of notes in the time-series data, but the embodiment is not limited to this.
  • the estimating unit 22 determines a second proportion of notes included in the note string, which is greater than the first proportion. Fingering information about notes may be estimated. In this case, appropriate fingerings for a beginner or intermediate player playing the instrument can be presented.
  • the output finger information B of the training data D may not include some of the elements B5f, B9f, B11f, B13f, B16f, B18f, and B20f.
  • the output finger information B when the input time-series data Az includes elements A5f, A11f, A16f, and A20f, the output finger information B includes elements B5f, B11f, B16f, and B20f.
  • the output finger information B may not include some of the elements B9f, B13f, and B18f.
  • training data D represents a set of input time-series data A and output note information.
  • the first acquisition unit 11 and the second acquisition unit 12 acquire the input time-series data A and the output note information of the training data D, respectively. Acquisition of output note information is executed instead of step S2 in the sound learning process of FIG.
  • the input time-series data Az in this embodiment is the same as the input time-series data Az in the modified example (FIG. 8) of the first embodiment.
  • the first acquisition unit 11 can acquire the input time-series data Az by deleting the elements C9f, C11f, and C16f from the output note information Cz in FIG. 11, which will be described later.
  • FIG. 11 is a diagram showing an example of output note information C in the third embodiment.
  • the upper part of FIG. 11 shows the output note information C (Cz) described by the musical score representation method.
  • the lower part of FIG. 11 shows the musical score represented by the output note information Cz.
  • the output note information Cz includes a plurality of elements C0-C24. Elements C0 to C24 in FIG. 11 are the same as elements B0 to B24 of the output finger information Bz of the modified example (FIG. 9) of the first embodiment.
  • the output note information Cz also includes additional elements placed immediately after portions of the elements C5, C9, C11, C13, C16, C18, and C20 corresponding to the notes.
  • the attribute of "fingerrate” in element C0 is “2"
  • attribute "2" means a rate of 40%. Therefore, the output note information Cz consists of elements C9f, C11f, C9f, C11f, Further includes C16f.
  • Elements C9f, C11f, and C16f respectively indicate notes corresponding to immediately preceding elements C9, C11, and C16 as notes to which fingering is to be applied from the reference note string.
  • the notes N2, N3 and N5 corresponding to the elements C9, C11 and C16 are identifiably written on the musical score by the elements C9f, C11f and C16f.
  • the construction unit 13 in FIG. 3 performs machine learning with the input time-series data Az as input elements and the output note information Cz as output elements.
  • a trained model M representing the input/output relationship between the input time-series data Az and the output note information Cz is constructed.
  • the reception unit 21 receives the time-series data. Based on the trained model M constructed by the training device 10 and the time-series data received by the receiving unit 21, the estimating unit 22 estimates note information indicating notes to which fingering is to be applied from the string of notes. do. Estimation of note information is executed instead of step S12 in the fingering presentation process of FIG.
  • the generation unit 23 generates musical score information indicating an auxiliary musical score in which the musical notes indicated by the musical note information are displayed in an identifiable manner.
  • the estimation unit 22 uses the first trained model M constructed in the first embodiment and the second trained model M constructed in the present embodiment to Finger information may be estimated that indicates which fingers are to be used to play some of the notes included in the string.
  • FIG. 12 is a flowchart showing an example of fingering presentation processing in the modified example.
  • the reception unit 21 receives time-series data (step S21).
  • the estimation unit 22 estimates intermediate finger information from the time-series data received in step S11 using the first trained model M constructed in the first embodiment (step S22).
  • the intermediate finger information indicates the finger used when playing each note included in the note string with the musical instrument.
  • the estimation unit 22 also uses the second trained model M constructed in the present embodiment to estimate note information from the time-series data received in step S11 (step S23). Either of steps S22 and S23 may be performed first, or may be performed simultaneously.
  • the estimating unit 22 estimates fingering information for notes included in the note string other than the note indicated by the note information estimated in step S23, based on the intermediate fingering information estimated in step S22. (step S24). After that, the generation unit 23 generates musical score information based on the note sequence of the time-series data received in step S21 and the finger information estimated in step S24 (step S25). This completes the fingering presentation process.
  • the intermediate finger information estimated in step S22 has, for example, the same configuration as the output finger information Bz of the modified example (FIG. 9) of the first embodiment.
  • the note information estimated in step S23 has the same structure as the output note information Cz in FIG.
  • FIG. 13 is a diagram showing an example of finger information estimated in step S24 of the fingering presentation process.
  • the upper part of FIG. 13 shows the finger information F (Fz) written in a musical score representation format.
  • the lower part of FIG. 13 shows an auxiliary musical score represented by finger information Fz.
  • the finger information Fz is composed of elements B9f, B11f, and B16f corresponding to the elements C9f, C11f, and C16f indicating the notes to which fingering is to be applied in the note information (see FIG. 11), from the intermediate finger information (see FIG. 9). is estimated by removing
  • finger information Fz includes a plurality of elements F1 to F24. Elements F1 to F24 in FIG. 13 are the same as elements B1 to B24 of the output finger information Bz of the modified example (FIG. 9) of the first embodiment. Also, the finger information Fz includes additional elements placed immediately after parts of the elements F5, F9, F11, F13, F16, F18, and F20 corresponding to the notes. In this example, the finger information Fz further includes elements F5f, F13f, F18f, and F20f arranged immediately after the elements F5, F13, F18, and F20, respectively.
  • Elements F5f, F13f, F18f, and F20f respectively indicate the finger numbers used when playing the notes corresponding to the immediately preceding elements F5, F13, F18, and F20.
  • the "finger" attribute of the elements F5f, F13f, F18f, and F20f designates the finger number. Therefore, the elements F5f, F13f, F18f, and F20f, as shown in the lower part of FIG. and "2" are respectively written on the supporting musical score.
  • the fingering information for some notes is thinned out from the fingering information for all notes included in the note string of the time-series data.
  • appropriate fingerings for a beginner or intermediate player playing the instrument can be presented.
  • fingering information about important notes is thinned out when playing a musical instrument, so beginner-level or intermediate-level players should cultivate appropriate fingering judgment when practicing a musical instrument. can be done.
  • the fingering presentation device 20 includes the generator 23, but the embodiment is not limited to this.
  • the player can create an auxiliary musical score by transcribing the finger information estimated by the estimating section 22 into a desired musical score. Therefore, the fingering presentation device 20 does not have to include the generator 23 .
  • the training data D is trained to estimate finger information when playing the piano, but the embodiment is not limited to this.
  • the training data D may be trained to estimate finger information when performing with other musical instruments such as drums.
  • the user of the fingering presentation device 20 is a performer has been described as an example, but the user of the fingering presentation device 20 may be, for example, a staff member of a music production company. . Also, the machine learning by the training device 10 may be performed in advance by the staff of the music production company.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

提示運指提示装置は、受付部および推定部を備える。受付部は、複数の音符からなる音符列を含む時系列データを受け付ける。推定部は、訓練済モデルを用いて、指情報を推定する。指情報は、受付部により受け付けられた音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す。あるいは、推定部は、訓練済モデルを用いて、音符情報を推定する。音符情報は、受付部により受け付けられた音符列のうち、運指を付与する対象となる音符を示す。

Description

運指提示装置、訓練装置、運指提示方法および訓練方法
 本発明は、楽器を演奏する際の運指を提示する運指提示装置、訓練装置、運指提示方法および訓練方法に関する。
 楽器の演奏の練習を補助するための装置が知られている。例えば、特許文献1に記載された情報処理装置においては、演奏者の演奏技術レベルが算出され、算出された演奏技術レベルに基づいて、演奏者に演奏可能な楽曲が提示される。しかしながら、演奏者が未熟である場合には、各音符を楽器により演奏する際の指使い(以下、運指と呼ぶ。)を適切に決めることは容易ではない。これに対し、特許文献2には、音符系列の各音符での運指を確率モデルに基づいて決定する運指決定方法が記載されている。
特開2013-083845号公報 特開2007-241034号公報
 特許文献2によれば、演奏者は、確率モデルに基づいた楽器演奏における運指を認識することができる。しかしながら、現実的には運指の組み合わせは無数に存在し、楽曲を演奏するための最適な運指は1つではない。そのため、より適切な運指が提示されることが望まれる。
 本発明の目的は、楽器を演奏する際の適切な運指を提示することが可能な運指提示装置、訓練装置、運指提示方法および訓練方法を提供することである。
 本発明の一局面に従う運指提示装置は、複数の音符からなる音符列を含む時系列データを受け付ける受付部と、訓練済モデルを用いて、音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す指情報、または音符列から運指を付与する対象となる音符を示す音符情報を推定する推定部とを備える。
 本発明の他の局面に従う訓練装置は、複数の音符からなる参照音符列を含む入力時系列データを取得する第1の取得部と、参照音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す出力指情報、または参照音符列から運指を付与する対象となる音符を示す出力音符情報を取得する第2の取得部と、入力時系列データと出力指情報または出力音符情報との間の入出力関係を習得した訓練済モデルを構築する構築部とを備える。
 本発明のさらに他の局面に従う運指提示方法は、複数の音符からなる音符列を含む時系列データを受け付け、訓練済モデルを用いて、音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す指情報、または音符列から運指を付与する対象となる音符を示す音符情報を推定し、コンピュータにより実行される。
 本発明のさらに他の局面に従う訓練方法は、複数の音符からなる参照音符列を含む入力時系列データを取得し、参照音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す出力指情報、または参照音符列から運指を付与する対象となる音符を示す出力音符情報を取得し、入力時系列データと出力指情報または出力音符情報との間の入出力関係を習得した訓練済モデルを構築し、コンピュータにより実行される。
 本発明によれば、楽器を演奏する際の適切な運指を提示することができる。
図1は本発明の第1の実施の形態に係る運指提示装置および訓練装置を含む処理システムの構成を示すブロック図である。 図2は各訓練データの一例を示す図である。 図3は訓練装置および運指提示装置の構成を示すブロック図である。 図4は表示部に表示される補助用楽譜の一例を示す。 図5は図3の訓練装置による訓練処理の一例を示すフローチャートである。 図6は図3の運指提示装置による運指提示処理の一例を示すフローチャートである。 図7は入力時系列データの他の例を示す図である。 図8は変形例における入力時系列データの一例を示す図である。 図9は変形例における出力指情報の一例を示す図である。 図10は第2の実施の形態における入力時系列データの一例を示す図である。 図11は第3の実施の形態における出力指情報の一例を示す図である。 図12は変形例における運指提示処理の一例を示すフローチャートである。 図13は運指提示処理のステップS24で推定される指情報の一例を示す図である。
 [1]第1の実施の形態
 (1)処理システムの構成
 以下、本発明の実施の形態に係る運指提示装置、訓練装置、運指提示方法および訓練方法について図面を用いて詳細に説明する。図1は、本発明の第1の実施の形態に係る運指提示装置および訓練装置を含む処理システムの構成を示すブロック図である。図1に示すように、処理システム100は、RAM(ランダムアクセスメモリ)110、ROM(リードオンリメモリ)120、CPU(中央演算処理装置)130、記憶部140、操作部150および表示部160を備える。
 処理システム100は、パーソナルコンピュータ、タブレット端末またはスマートフォン等のコンピュータにより実現される。あるいは、処理システム100は、イーサネット等の通信路により接続された複数のコンピュータの共同動作により実現されてもよいし、電子ピアノ等の演奏機能を備えた電子楽器により実現されてもよい。
 RAM110、ROM120、CPU130、記憶部140、操作部150および表示部160は、バス170に接続される。RAM110、ROM120およびCPU130により訓練装置10および運指提示装置20が構成される。本実施の形態では、訓練装置10と運指提示装置20とは共通の処理システム100により構成されるが、別個の処理システムにより構成されてもよい。
 RAM110は、例えば揮発性メモリからなり、CPU130の作業領域として用いられる。ROM120は、例えば不揮発性メモリからなり、訓練プログラムおよび運指提示プログラムを記憶する。CPU130は、ROM120に記憶された訓練プログラムをRAM110上で実行することにより訓練処理を行う。また、CPU130は、ROM120に記憶された運指提示プログラムをRAM110上で実行することにより運指提示処理を行う。訓練処理および運指提示処理の詳細については後述する。
 訓練プログラムまたは運指提示プログラムは、ROM120ではなく記憶部140に記憶されてもよい。あるいは、訓練プログラムまたは運指提示プログラムは、コンピュータが読み取り可能な記憶媒体に記憶された形態で提供され、ROM120または記憶部140にインストールされてもよい。あるいは、処理システム100がインターネット等のネットワークに接続されている場合には、当該ネットワーク上のサーバ(クラウドサーバを含む。)から配信された訓練プログラムまたは運指提示プログラムがROM120または記憶部140にインストールされてもよい。
 記憶部140は、ハードディスク、光学ディスク、磁気ディスクまたはメモリカード等の記憶媒体を含み、訓練済モデルMおよび複数の訓練データDを記憶する。訓練済モデルMまたは各訓練データDは、記憶部140に記憶されず、コンピュータが読み取り可能な記憶媒体に記憶されていてもよい。あるいは、処理システム100がネットワークに接続されている場合には、訓練済モデルMまたは各訓練データDは、当該ネットワーク上のサーバに記憶されていてもよい。
 (2)訓練データ
 訓練済モデルMは、運指提示装置20の使用者(以下、演奏者と呼ぶ。)が楽器により楽曲を演奏する際の運指を提示するために訓練された機械学習モデルであり、複数の訓練データDを用いて構築される。訓練装置10の使用者は、操作部150を操作することにより、訓練データDを生成することができる。訓練データDは、参照演奏者の演奏知識または演奏スタイル等に基づいて作成されたデータである。参照演奏者は、楽曲の演奏に関して比較的高い技量を有する。参照演奏者は、楽曲の演奏における演奏者の指導者または師であってもよい。
 訓練データDは、入力時系列データと出力指情報との組を示す。入力時系列データは、複数の音符からなる参照音符列を示す。入力時系列データは楽譜の画像を示す画像データであってもよい。出力指情報は、参照音符列の各音符を楽器により演奏する際に使用する参照演奏者の指を示し、参照音符列を演奏する際の運指を提示するために用いることができる。出力指情報は、各指に付与された固有の番号であってもよい。本例では、親指、人指し指、中指、薬指および小指に番号「1」~「5」がそれぞれ付与される。
 ここで、楽曲を演奏するための最適な運指は、演奏者の身体的特徴または演奏者による演奏の流儀により異なる。そこで、本実施の形態においては、入力時系列データは、参照音符列を演奏する参照演奏者の分類(カテゴリ)を示す参照演奏者識別子をさらに含む。参照演奏者識別子は、参照演奏者の身体的特徴と参照演奏者による演奏の流儀との少なくとも一方ごとに異なるように決定される。参照演奏者の身体的特徴は、例えば参照演奏者の手の大きさ(指の長さ)、年齢、性別または大人か子供かの区別を含む。
 図2は、各訓練データDの一例を示す図である。図2の例は、参照演奏者がピアノを演奏する際の入力時系列データおよび出力指情報の一部を示す。図2に示すように、入力時系列データAは、要素A0~A16を含む。要素A0は、参照演奏者識別子に対応し、参照演奏者の身体的特徴と参照演奏者による演奏の流儀との少なくとも一方ごとに異なる文字列により表される。要素A1~A16は、参照音符列に対応する。本例では、要素A0は入力時系列データAにおける先頭、すなわち参照音符列(要素A1~A16)の前に配置されるが、入力時系列データAにおける任意の位置に配置されてもよい。
 要素A1,A3,A5,…,A15における“L”は左手を意味し、数字は鍵に付与された番号を意味し、“on”および“off”はそれぞれ押鍵および離鍵を意味する。要素A2,A4,A6,…,A16における“wait”は待機を意味し、数字は時間の長さを意味する。したがって、要素A1~A4は、番号「66」の鍵を押して13単位時間だけ維持した後、番号「66」の鍵を離して2単位時間だけ維持することを意味する。
 出力指情報Bは、入力時系列データAの要素A0~A16にそれぞれ対応する要素B0~B16を含む。要素B0は、参照演奏者識別子を示し、要素A0と同一の文字列により表される。要素B1,B3,B5,…,B15における“L”は左手を意味し、数字は指に付与された番号を意味し、“down”および“up”はそれぞれ押し上げおよび押し下げを意味する。要素B2,B4,B6,…,B16における“wait”は待機を意味し、数字は時間の長さを意味する。したがって、要素B1~B4は、左手の中指を押し下げて13単位時間だけ待機した後、左手の中指を押し上げて2単位時間だけ維持することを意味する。
 図2の訓練データDは、左手の運指を示すために生成されるが、実施の形態はこれに限定されない。訓練データDは、右手の運指を示すために生成されてもよいし、左手および右手の各々の運指を示すために生成されてもよい。右手の運指を示すための入力時系列データAおよび出力指情報Bの要素においては、文字「L」ではなく例えば「R」が使用されてもよい。
 (3)訓練装置および運指提示装置
 図3は、訓練装置10および運指提示装置20の構成を示すブロック図である。図3に示すように、訓練装置10は、機能部として、第1の取得部11、第2の取得部12および構築部13を含む。図1のCPU130が訓練プログラムを実行することにより、訓練装置10の機能部が実現される。訓練装置10の機能部の少なくとも一部は、電子回路等のハードウエアにより実現されてもよい。
 第1の取得部11は、記憶部140等に記憶された各訓練データDから入力時系列データAを取得する。第2の取得部12は、各訓練データDから出力指情報Bを取得する。構築部13は、各訓練データDについて、第1の取得部11により取得された入力時系列データAを入力要素とし、第2の取得部12により取得された出力指情報Bを出力要素とする機械学習を行う。複数の訓練データDについて機械学習を繰り返すことにより、構築部13は、入力時系列データAと出力指情報Bとの間の入出力関係を示す訓練済モデルMを構築する。
 本例では、構築部13はTransformerを訓練することにより訓練済モデルMを構築するが、実施の形態はこれに限定されない。構築部13は、時系列を扱う他の方式の機械学習モデルを訓練することにより訓練済モデルMを構築してもよい。構築部13により構築された訓練済モデルMは、例えば記憶部140に記憶される。構築部13により構築された訓練済モデルMは、ネットワーク上のサーバ等に記憶されてもよい。
 運指提示装置20は、機能部として、受付部21、推定部22および生成部23を含む。図1のCPU130が運指提示プログラムを実行することにより、運指提示装置20の機能部が実現される。運指提示装置20の機能部の少なくとも一部は、電子回路等のハードウエアにより実現されてもよい。
 本実施の形態では、受付部21は、複数の音符からなる音符列を含む時系列データを受け付ける。演奏者は、楽譜の画像を示す画像データを時系列データとして受付部21に与えることができる。あるいは、演奏者は、操作部150を操作することにより時系列データを生成し、受付部21に与えることができる。
 本例では、時系列データは、図2の入力時系列データAと同様の構成を有し、音符列を演奏する演奏者の分類(カテゴリ)を示す演奏者識別子をさらに含む。演奏者識別子は、演奏者の身体的特徴と演奏者による演奏の流儀との少なくとも一方ごとに異なるように決定される。演奏者の身体的特徴は、例えば演奏者の手の大きさ、年齢、性別または大人か子供かの区別を含む。
 推定部22は、記憶部140等に記憶された訓練済モデルMを用いて指情報を推定する。指情報は、受付部21により受け付けられた音符列の各音符を演奏する際に使用する演奏者の指を示し、音符列および演奏者識別子に基づいて推定される。指情報は、各指に付与された固有の番号であってもよい。生成部23は、受付部21により受け付けられた時系列データの音符列および推定部22により推定された指情報に基づいて楽譜情報を生成する。
 表示部160には、生成部23により生成された楽譜情報に基づいて補助用楽譜が表示される。図4は、表示部160に表示される補助用楽譜の一例を示す。図4に示すように、補助用楽譜には、推定部22により推定された指情報が受付部21により受け付けられた音符列の各音符に対応するように示される。図4の例では、指情報として一方の手の指の番号が示されている。
 左手または右手の指の番号の区別をする場合には、左手の指の番号の付近に「L」等の所定の文字が付され、右手の指の番号の付近に「R」等の他の所定の文字が付されてもよい。あるいは、左手の指の番号またはそれに対応する音符に赤色等の所定の色が付され、右手の指の番号またはそれに対応する音符に青色等の他の所定の色が付されてもよい。
 (4)訓練処理および運指提示処理
 図5は、図3の訓練装置10による訓練処理の一例を示すフローチャートである。図5の訓練処理は、図1のCPU130が訓練プログラムを実行することにより行われる。まず、第1の取得部11は、各訓練データDから入力時系列データAを取得する(ステップS1)。また、第2の取得部12は、各訓練データDから出力指情報Bを取得する(ステップS2)。ステップS1,S2は、いずれが先に実行されてもよいし、同時に実行されてもよい。
 次に、構築部13は、各訓練データDについて、ステップS1で取得された入力時系列データAを入力要素とし、ステップS2で取得された出力指情報Bを出力要素として機械学習を行う(ステップS3)。続いて、構築部13は、十分な機械学習が実行されたか否かを判定する(ステップS4)。機械学習が不十分な場合、構築部13はステップS3に戻る。十分な機械学習が実行されるまで、パラメータが変化されつつステップS3,S4が繰り返される。機械学習の繰り返し回数は、構築される訓練済モデルMが満たすべき品質条件に応じて変化する。
 十分な機械学習が実行された場合、構築部13は、ステップS3の機械学習により習得した入力時系列データAと出力指情報Bとの間の入出力関係を訓練済モデルMとして保存する(ステップS5)。これにより、訓練処理が終了する。
 図6は、図3の運指提示装置20による運指提示処理の一例を示すフローチャートである。図6の運指提示処理は、図1のCPU130が運指提示プログラムを実行することにより行われる。まず、受付部21は、時系列データを受け付ける(ステップS11)。次に、推定部22は、訓練処理のステップS5で保存された訓練済モデルMを用いて、ステップS11で受け付けられた時系列データから指情報を推定する(ステップS12)。
 その後、生成部23は、ステップS11で受け付けられた時系列データの音符列およびステップS12で推定された指情報に基づいて楽譜情報を生成する(ステップS13)。生成された楽譜情報に基づいて、補助用楽譜が表示部160に表示されてもよい。これにより、運指提示処理が終了する。
 (5)実施の形態の効果
 以上説明したように、本実施の形態に係る運指提示装置20は、複数の音符からなる音符列を含む時系列データを受け付ける受付部21と、訓練済モデルMを用いて、音符列の各音符を楽器により演奏する際に使用する指を示す指情報を推定する推定部22とを備える。この構成によれば、訓練済モデルMを用いて、時系列データにおける複数の音符の時間的流れから適切な指情報が推定される。これにより、楽器を演奏する際の適切な運指を提示することができる。
 訓練済モデルMは、複数の音符からなる参照音符列を含む入力時系列データAと、参照音符列の各音符を楽器により演奏する際に使用する指を示す出力指情報Bとの間の入出力関係を習得した機械学習モデルであってもよい。この場合、時系列データから指情報を容易に推定することができる。
 時系列データは、音符列を演奏する演奏者を示す演奏者識別子をさらに含み、推定部22は、演奏者識別子に基づいて指情報を推定してもよい。この場合、演奏者に応じて適切な指情報を推定することができる。
 演奏者識別子は、演奏者の身体的特徴に対応するように決定されてもよい。この場合、演奏者の身体的特徴に応じて適切な指情報を推定することができる。
 演奏者識別子は、演奏者による演奏の流儀に対応するように決定されてもよい。この場合、演奏者による演奏の流儀に応じて適切な指情報を推定することができる。
 運指提示装置20は、音符列の各音符に対応するように指情報が付された補助用楽譜を示す楽譜情報を生成する生成部をさらに備えてもよい。この場合、演奏者は、補助用楽譜を視認することにより、音符列の各音符に対応する指を容易に認識することができる。
 本実施の形態に係る訓練装置10は、複数の音符からなる参照音符列を含む入力時系列データAを取得する第1の取得部11と、参照音符列の各音符を楽器により演奏する際に使用する指を示す出力指情報Bを取得する第2の取得部12と、入力時系列データAと出力指情報Bとの間の入出力関係を習得した訓練済モデルMを構築する構築部13とを備える。この構成によれば、入力時系列データAと出力指情報Bとの間の入出力関係を習得した訓練済モデルMを容易に構築することができる。
 (6)訓練データの他の例
 本実施の形態において、入力時系列データAは参照演奏者識別子を含み、時系列データは演奏者識別子を含むが、実施の形態はこれに限定されない。入力時系列データAは、参照音符列を含めばよく、参照演奏者識別子を含まなくてもよい。同様に、時系列データは、音符列を含めばよく、演奏者識別子を含まなくてもよい。
 また、本実施の形態において、入力時系列データAおよび出力指情報Bは、MIDI(Musical Instrument Digital Interface)規格における押鍵または離鍵等を示す、いわゆる動作ベースで記述されるが、実施の形態はこれに限定されない。入力時系列データAおよび出力指情報Bは、他の方式で記述されてもよい。例えば、入力時系列データAおよび出力指情報Bは、MIDI規格における音符の開始位置または音符の長さ等を示す、いわゆる音符ベースで記述されてもよい。時系列データおよび指情報についても同様である。
 図7は、入力時系列データAの他の例を示す図である。図7の上段には、動作ベースで記述された入力時系列データA(Ax)が示される。図7の中段には、音符ベースで記述された入力時系列データA(Ay)が示される。入力時系列データAxと入力時系列データAyとは、同一の参照音符列(図7の下段に示される楽譜中の参照音符列)を含む。入力時系列データAx,Ayにおける“bar”および“beat”は、参照音符列の拍節構造を示す要素である。
 図7に示すように、入力時系列データAを音符ベースで記述することにより、入力時系列データAの長さが短縮される。これにより、より長い入力時系列データAを容易に処理することが可能になる。なお、入力時系列データAに対応する出力指情報Bは、入力時系列データAにおける音高の番号を示す要素(“note_○○”)の直後に指の番号を示す要素を挿入することにより記述することができる。
 あるいは、入力時系列データAおよび出力指情報Bは、楽譜を表す方式により記述されてもよい。楽譜を表す方式により記述された入力時系列データAおよび出力指情報Bの詳細については、以下の変形例において説明する。
 (7)変形例
 図8は、変形例における入力時系列データAの一例を示す図である。図8の上段には、楽譜を表す方式により記述された入力時系列データA(Az)が示される。図8の下段には、入力時系列データAにより表された楽譜が示される。図8の上段に示すように、入力時系列データAzは、複数の要素A0~A24を含む。一部の要素は属性を有する。要素の属性は、当該要素の後部(アンダーバーの後)に記述される。
 要素A0は、参照音符列に含まれる音符のうち運指を付与する音符の割合を示す。要素A0は入力時系列データAzにおける先頭の前に配置されるが、入力時系列データAzにおける任意の位置に配置されてもよい。要素A0における“fingerrate”の属性により、割合が指定される。本例における属性「5」は、100%の割合を意味する。割合は、例えば20~40%または40~60%のように、範囲を有してもよいし、複数の範囲に分割されてもよい。
 要素A1はパートを示す。要素A1は要素A0の直後に配置されるが、入力時系列データAzにおける任意の位置に配置されてもよい。要素A1として、「R」および「L」は、それぞれ右手および左手のパートを示す。本例では、「R」の後に右手に対応する要素が配置される。その後に「L」が配置され、「L」の後に左手に対応する要素が配置される。「R」および右手に対応する要素は、左手に対応する要素の後に配置されてもよい。パートの区別がない場合、入力時系列データAzは要素A1を含まない。
 要素A2,A15,A24は、楽譜の小節線を示す。したがって、図8の例では、要素A2における“bar”と要素A15における“bar”とにより区切られた範囲が第1小節に対応する。要素A15における“bar”と要素A24における“bar”とにより区切られた範囲が第2小節に対応する。
 要素A3は、楽譜の音部記号を示す。要素A3における“clef”の属性により、音部記号の種類が指定される。図8の例では、属性が“treble”であるため、要素A3により音部記号としてト音記号が指定される。なお、属性が“bass”である場合には、要素A3により音部記号としてヘ音記号が指定される。
 要素A4は、楽譜の拍子記号を示す。要素A4における“time”の属性により、拍子記号の種類が指定される。図8の例では、属性が“4/4”であるため、要素A4により拍子記号として“4/4”が指定される。
 参照音符列における音符は、音高と音価との組により示される。音高は、要素A5,A9,A11,A13,A16,A18,A20における“note”の属性により指定される。音価は、要素A6,A10,A12,A14,A17,A19,A21における“len”の属性により指定される。本例では、“len_1”が1拍に相当する。
 楽譜における音符の符幹の方向は、要素A6,A10,A12,A14,A17,A19,A21における“len”の他の属性により指定される。他の属性が“down”の場合、符幹は符頭から下に延びる。他の属性が“up”の場合、符幹は符頭から上に延びる。8分音符または16分音符等の複数の音符が連桁によりつなげられる場合には、連桁の開始位置、中継位置および終了位置が、要素A10,A12,A14における“len”のさらに他の属性“start”、“continue”および“stop”によりそれぞれ指定される。
 参照音符列における休符は、要素A7,A22における“rest”により指定される。休符の音価は、要素A8,A23における“len”の属性により記述される。
 図8の例では、要素A5,A6は音符N1を示し、要素A7,A8は休符R1を示す。要素A9,A10は音符N2を示し、要素A11,A12は音符N3を示し、要素A13,A14は音符N4を示す。要素A16,A17は音符N5を示し、要素A18,A19は音符N6を示す。要素A20,A21は音符N7を示し、要素A22,A23は休符R2を示す。
 図9は、変形例における出力指情報Bの一例を示す図である。図9の上段には、楽譜を表す方式により記述された出力指情報B(Bz)が示される。出力指情報Bzは、図8の入力時系列データAzに対応する。図9の下段には、出力指情報Bzにより表された楽譜が示される。
 図9の上段に示すように、出力指情報Bzは、複数の要素B0~B24を含む。また、出力指情報Bzは、要素B5,B9,B11,B13,B16,B18,B20の直後にそれぞれ配置された要素B5f,B9f,B11f,B13f,B16f,B18f,B20fをさらに含む。要素B0~B24は、図8の入力時系列データAzの要素A0~A24とそれぞれ同様である。そのため、図3の第1の取得部11は、出力指情報Bzから要素B5f,B9f,B11f,B13f,B16f,B18f,B20fを削除することにより、入力時系列データAzを取得することができる。
 要素B5f,B9f,B11f,B13f,B16f,B18f,B20fは、直前の要素B5,B9,B11,B13,B16,B18,B20に対応する音符を楽器により演奏する際に使用する指の番号をそれぞれ示す。要素B5f,B9f,B11f,B13f,B16f,B18f,B20fにおける“finger”の属性により、指の番号が指定される。したがって、要素B5f,B9f,B11f,B13f,B16f,B18f,B20fにより、図9の下段に示すように、音符N1~N7を演奏する際に使用する指の番号「1」、「1」、「2」、「1」、「3」、「3」および「2」がそれぞれ楽譜に記載される。
 (8)変形例の効果
 第1の実施の形態の変形例においては、要素A0の属性により、参照音符列に含まれる音符のうち運指を付与する音符の割合を任意に指定することができる。割合が100%であるときには、推定部22は、音符列に含まれる全部の音符についての指情報を推定する。この場合、入門レベルの演奏者が楽器を演奏する際の適切な運指を提示することができる。
 また、割合が100%であるときには、生成部23は、推定部22により推定された指情報に基づいて、指の動きをアニメーション等により示す動画ファイルを生成してもよい。これにより、指の動きを可視化することができる。このような動画ファイルの生成は、図6の運指提示処理におけるステップS13の前または後に実行されてもよいし、ステップS13と並列的に実行されてもよいし、ステップS13に代えて実行されてもよい。
 一方、割合が100%未満であるときには、推定部22は、音符列に含まれる音符のうち、運指を付与する対象となる一部の音符と、当該一部の音符についての指情報とを推定する。この場合、入門レベルよりも高い初級レベルまたは中級レベルの演奏者が楽器を演奏する際の適切な運指を提示することができる。この構成においては、出力指情報Bzは、要素B5f,B9f,B11f,B13f,B16f,B18f,B20fの一部を含まない。
 また、割合が100%未満であるときには、推定部22は、指情報を推定せずに、音符列から運指を付与する対象となる音符を示す音符情報を推定してもよい。詳細は、後述する第3の実施の形態で説明する。
 [2]第2の実施の形態
 (1)処理システム
 第2の実施の形態における処理システム100について、第1の実施の形態における処理システム100と異なる点を説明する。図3の訓練装置10において、第1の取得部11および第2の取得部12は、訓練データDの入力時系列データAおよび出力指情報Bをそれぞれ取得する。
 図10は、第2の実施の形態における入力時系列データAの一例を示す図である。図10の上段には、楽譜を表す方式により記述された入力時系列データAzが示される。図10の下段には、入力時系列データAzにより表された楽譜が示される。
 図10の上段に示すように、入力時系列データAzは、複数の要素A0~A24を含む。図10の要素A0~A24は、第1の実施の形態における変形例(図8)の要素A0~A24とそれぞれ同様である。また、入力時系列データAzは、音符に対応する要素A5,A9,A11,A13,A16,A18,A20の一部の直後に配置された追加の要素を含む。図10の例では、入力時系列データAzは、要素A5,A11,A16,A20の直後にそれぞれ配置された要素A5f,A11f,A16f,A20fをさらに含む。
 要素A5f,A11f,A16f,A20fは、直前の要素A5,A11,A16,A20に対応する音符を楽器により演奏する際に使用する指の番号をそれぞれ示す指情報(以下、基本指情報と呼ぶ。)である。要素A5f,A11f,A16f,A20fにおける“finger”の属性により、指の番号が指定される。したがって、要素A5f,A11f,A16f,A20fにより、図10の下段に示すように、音符N1,N3,N5,N7を演奏する際に使用する指の番号「1」、「2」「3」および「2」がそれぞれ楽譜に記載される。
 本実施の形態における出力指情報Bzは、第1の実施の形態における変形例(図9)の出力指情報Bzと同様である。そのため、第1の取得部11は、出力指情報Bzから要素B5f,B9f,B11f,B13f,B16f,B18f,B20fの一部をランダムに削除することにより、入力時系列データAzを取得することができる。削除する要素B5f,B9f,B11f,B13f,B16f,B18f,B20fの割合は、訓練装置10の使用者が図1の操作部150を操作することにより指定することができる。
 本例では、出力指情報Bzから要素B9f,B13f,B18fが削除されることにより入力時系列データAzが取得される。削除されない要素B5f,B11f,B16f,B20fが、基本指情報である要素A5f,A11f,A16f,A20fとして残存する。
 図3の構築部13は、上記の入力時系列データAzを入力要素とし、出力指情報Bzを出力要素とする機械学習を行う。複数の訓練データDについて機械学習が繰り返されることにより、入力時系列データAzと出力指情報Bzとの間の入出力関係を示す訓練済モデルMが構築される。
 運指提示装置20においては、受付部21が時系列データを受け付ける。時系列データは、音符列に含まれる音符のうち一部の音符を楽器により演奏する際に使用する指を示す基本指情報をさらに含む。推定部22は、構築された訓練済モデルMと、基本指情報とに基づいて、音符列に含まれる音符を楽器により演奏する際に使用する指を示す指情報を推定する。生成部23は、時系列データの音符列および指情報に基づいて楽譜情報を生成する。
 (2)実施の形態の効果
 本実施の形態によれば、時系列データの音符列に含まれる音符のうち、一部の音符についての指情報(基本指情報)のみが既知であり、残りの音符についての指情報が与えられていない場合でも、残りの音符についての指情報が補完される。これにより、入門レベルの演奏者が楽器を演奏する際の適切な運指を提示することができる。生成部23は、推定部22により推定された指情報に基づいて、指の動きをアニメーション等により示す動画ファイルを生成してもよい。この場合、指の動きを可視化することができる。
 (3)変形例
 本実施の形態において、推定部22は時系列データの音符列に含まれる全部の音符についての指情報を推定するが、実施の形態はこれに限定されない。音符列に含まれる音符のうち第1の割合の音符について指情報が与えられている場合において、推定部22は、音符列に含まれる音符のうち第1の割合よりも大きい第2の割合の音符についての指情報を推定してもよい。この場合、初級レベルまたは中級レベルの演奏者が楽器を演奏する際の適切な運指を提示することができる。
 変形例においては、訓練データDの出力指情報Bは、要素B5f,B9f,B11f,B13f,B16f,B18f,B20fの一部を含まなくてもよい。例えば、入力時系列データAzが要素A5f,A11f,A16f,A20fを含む場合には、出力指情報Bは要素B5f,B11f,B16f,B20fを含む。一方、出力指情報Bは、要素B9f,B13f,B18fの一部を含まなくてもよい。
 [3]第3の実施の形態
 (1)処理システム
 第3の実施の形態における処理システム100について、第1の実施の形態における処理システム100と異なる点を説明する。本実施の形態においては、訓練データDは、入力時系列データAと出力音符情報との組を示す。図3の訓練装置10において、第1の取得部11および第2の取得部12は、訓練データDの入力時系列データAおよび出力音符情報をそれぞれ取得する。出力音符情報の取得は、図5の音学習処理におけるステップS2に代えて実行される。
 本実施の形態における入力時系列データAzは、第1の実施の形態における変形例(図8)の入力時系列データAzと同様である。第1の取得部11は、後述する図11の出力音符情報Czから要素C9f,C11f,C16fを削除することにより、入力時系列データAzを取得することができる。
 図11は、第3の実施の形態における出力音符情報Cの一例を示す図である。図11の上段には、楽譜を表す方式により記述された出力音符情報C(Cz)が示される。図11の下段には、出力音符情報Czにより表された楽譜が示される。
 図11の上段に示すように、出力音符情報Czは、複数の要素C0~C24を含む。図11の要素C0~C24は、第1の実施の形態における変形例(図9)の出力指情報Bzの要素B0~B24とそれぞれ同様である。また、出力音符情報Czは、音符に対応する要素C5,C9,C11,C13,C16,C18,C20の一部の直後に配置された追加の要素を含む。
 本例では、要素C0における“fingerrate”の属性は「2」であり、属性「2」は40%の割合を意味する。そのため、出力音符情報Czは、要素C5,C9,C11,C13,C16,C18,C20のうち、約40%の要素である要素C9,C11,C16の直後にそれぞれ配置された要素C9f,C11f,C16fをさらに含む。
 要素C9f,C11f,C16fは、直前の要素C9,C11,C16に対応する音符を、参照音符列から運指を付与する対象となる音符としてそれぞれ示す。図11の下段に示すように、要素C9f,C11f,C16fにより、要素C9,C11,C16に対応する音符N2,N3,N5がそれぞれ識別可能に楽譜に記載される。
 図3の構築部13は、上記の入力時系列データAzを入力要素とし、出力音符情報Czを出力要素とする機械学習を行う。複数の訓練データDについて機械学習が繰り返されることにより、入力時系列データAzと出力音符情報Czとの間の入出力関係を示す訓練済モデルMが構築される。
 運指提示装置20においては、受付部21が時系列データを受け付ける。推定部22は、訓練装置10により構築された訓練済モデルMと、受付部21により受け付けられた時系列データに基づいて、音符列から運指を付与する対象となる音符を示す音符情報を推定する。音符情報の推定は、図6の運指提示処理におけるステップS12に代えて実行される。生成部23は、音符情報が示す音符が識別可能に表示された補助用楽譜を示す楽譜情報を生成する。
 (2)実施の形態の効果
 本実施の形態によれば、音符列から運指を付与する対象となる音符を提示することができる。これにより、初級レベルまたは中級レベルの演奏者は、楽器を演奏する際に要所となる音符を認識することができる。
 (3)変形例
 推定部22は、第1の実施の形態で構築された第1の訓練済モデルMと、本実施の形態で構築された第2の訓練済モデルMとを用いて、音符列に含まれる一部の音符を楽器により演奏する際に使用する指を示す指情報を推定してもよい。図12は、変形例における運指提示処理の一例を示すフローチャートである。
 まず、受付部21は、時系列データを受け付ける(ステップS21)。次に、推定部22は、第1の実施の形態で構築された第1の訓練済モデルMを用いて、ステップS11で受け付けられた時系列データから中間指情報を推定する(ステップS22)。中間指情報は、音符列に含まれる各音符を楽器により演奏する際に使用する指を示す。
 また、推定部22は、本実施の形態で構築された第2の訓練済モデルMを用いて、ステップS11で受け付けられた時系列データから音符情報を推定する(ステップS23)。ステップS22,S23は、いずれが先に実行されてもよいし、同時に実行されてもよい。
 続いて、推定部22は、ステップS22で推定された中間指情報に基づいて、音符列に含まれる音符のうち、ステップS23で推定された音符情報が示す音符以外の音符についての指情報を推定する(ステップS24)。その後、生成部23は、ステップS21で受け付けられた時系列データの音符列およびステップS24で推定された指情報に基づいて楽譜情報を生成する(ステップS25)。これにより、運指提示処理が終了する。
 この運指提示処理においては、ステップS22で推定される中間指情報は、例えば第1の実施の形態における変形例(図9)の出力指情報Bzと同様の構成を有する。また、ステップS23で推定される音符情報は、図11の出力音符情報Czと同様の構成を有する。図13は、運指提示処理のステップS24で推定される指情報の一例を示す図である。
 図13の上段には、楽譜を表す方式により記述された指情報F(Fz)が示される。図13の下段には、指情報Fzにより表された補助用楽譜が示される。指情報Fzは、中間指情報(図9参照)から、音符情報(図11参照)における運指を付与する対象となる音符を示す要素C9f,C11f,C16fにそれぞれ対応する要素B9f,B11f,B16fを削除することにより推定される。
 具体的には、図13の上段に示すように、指情報Fzは、複数の要素F1~F24を含む。図13の要素F1~F24は、第1の実施の形態における変形例(図9)の出力指情報Bzの要素B1~B24とそれぞれ同様である。また、指情報Fzは、音符に対応する要素F5,F9,F11,F13,F16,F18,F20の一部の直後に配置された追加の要素を含む。本例では、指情報Fzは、要素F5,F13,F18,F20の直後にそれぞれ配置された要素F5f,F13f,F18f,F20fをさらに含む。
 要素F5f,F13f,F18f,F20fは、直前の要素F5,F13,F18,F20に対応する音符を楽器により演奏する際に使用する指の番号をそれぞれ示す。要素F5f,F13f,F18f,F20fにおける“finger”の属性により、指の番号が指定される。したがって、要素F5f,F13f,F18f,F20fにより、図13の下段に示すように、音符N1,N4,N6,N7を演奏する際に使用する指の番号「1」、「1」、「3」および「2」がそれぞれ補助用楽譜に記載される。
 変形例によれば、時系列データの音符列に含まれる全部の音符についての指情報から、一部の音符についての指情報が間引きされる。この場合、初級レベルまたは中級レベルの演奏者が楽器を演奏する際の適切な運指を提示することができる。例えば、楽器を演奏する際に要所となる音符についての指情報が間引かれるので、初級レベルまたは中級レベルの演奏者は、楽器を練習する際に、適切な運指の判断力を養うことができる。
 [4]他の実施の形態
 上記実施の形態において、運指提示装置20は生成部23を含むが、実施の形態はこれに限定されない。演奏者は、推定部22により推定された指情報を所望の楽譜に転記することにより補助用楽譜を作成することができる。そのため、運指提示装置20は、生成部23を含まなくてもよい。
 上記実施の形態において、訓練データDはピアノにより演奏を行う際の指情報を推定するように訓練されるが、実施の形態はこれに限定されない。訓練データDは、ドラム等の他の楽器により演奏を行う際の指情報を推定するように訓練されてもよい。
 上記実施の形態において、運指提示装置20の使用者が演奏者である場合を例に説明したが、運指提示装置20の使用者は、例えば、楽譜の作成会社のスタッフであってもよい。また、訓練装置10による機械学習は、楽譜の作成会社のスタッフにより事前に行われてもよい。

Claims (11)

  1. 複数の音符からなる音符列を含む時系列データを受け付ける受付部と、
     訓練済モデルを用いて、前記音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す指情報、または前記音符列から運指を付与する対象となる音符を示す音符情報を推定する推定部とを備える、運指提示装置。
  2. 前記訓練済モデルは、複数の音符からなる参照音符列を含む入力時系列データと、前記参照音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す出力指情報、または前記参照音符列から運指を付与する対象となる音符を示す出力音符情報との間の入出力関係を習得した機械学習モデルである、請求項1記載の運指提示装置。
  3. 前記時系列データは、前記音符列を演奏する演奏者を示す演奏者識別子をさらに含み、
     前記推定部は、前記演奏者識別子に基づいて前記指情報を推定する、請求項1または2記載の運指提示装置。
  4. 前記演奏者識別子は、前記演奏者の身体的特徴に対応するように決定される、請求項3記載の運指提示装置。
  5. 前記演奏者識別子は、前記演奏者による演奏の流儀に対応するように決定される、請求項3または4記載の運指提示装置。
  6. 前記時系列データは、前記音符列に含まれる音符のうち第1の割合の音符を楽器により演奏する際に使用する指を示す基本指情報をさらに含み、
     前記推定部は、前記基本指情報に基づいて、前記音符列に含まれる音符のうち前記第1の割合よりも大きい第2の割合の音符を楽器により演奏する際に使用する指を示す前記指情報を推定する、請求項1または2記載の運指提示装置。
  7. 前記推定部は、前記音符列に含まれる各音符を楽器により演奏する際に使用する指を示す中間指情報と、前記音符情報とを推定し、前記中間指情報に基づいて、前記音符列に含まれる音符のうち前記音符情報が示す音符以外の音符を楽器により演奏する際に使用する指を示す前記指情報を推定する、請求項1または2記載の運指提示装置。
  8. 前記音符列に含まれる少なくとも一部の音符に対応するように前記指情報が付された第1の補助用楽譜、または前記音符情報が示す音符が識別可能に表示された第2の補助用楽譜を示す楽譜情報を生成する生成部をさらに備える、請求項1~7のいずれか一項に記載の運指提示装置。
  9. 複数の音符からなる参照音符列を含む入力時系列データを取得する第1の取得部と、
     前記参照音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す出力指情報、または前記参照音符列から運指を付与する対象となる音符を示す出力音符情報を取得する第2の取得部と、
     前記入力時系列データと前記出力指情報または前記出力音符情報との間の入出力関係を習得した訓練済モデルを構築する構築部とを備える、訓練装置。
  10. 複数の音符からなる音符列を含む時系列データを受け付け、
     訓練済モデルを用いて、前記音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す指情報、または前記音符列から運指を付与する対象となる音符を示す音符情報を推定する、
     コンピュータにより実行される、運指提示方法。
  11. 複数の音符からなる参照音符列を含む入力時系列データを取得し、
     前記参照音符列に含まれる少なくとも一部の音符を楽器により演奏する際に使用する指を示す出力指情報、または前記参照音符列から運指を付与する対象となる音符を示す出力音符情報を取得し、
     前記入力時系列データと前記出力指情報または前記出力音符情報との間の入出力関係を習得した訓練済モデルを構築する、
     コンピュータにより実行される、訓練方法。
PCT/JP2021/040273 2021-03-09 2021-11-01 運指提示装置、訓練装置、運指提示方法および訓練方法 WO2022190453A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023505094A JPWO2022190453A1 (ja) 2021-03-09 2021-11-01
CN202180095314.2A CN116940978A (zh) 2021-03-09 2021-11-01 运指提示装置、训练装置、运指提示方法及训练方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021037170 2021-03-09
JP2021-037170 2021-03-09

Publications (1)

Publication Number Publication Date
WO2022190453A1 true WO2022190453A1 (ja) 2022-09-15

Family

ID=83226235

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/040273 WO2022190453A1 (ja) 2021-03-09 2021-11-01 運指提示装置、訓練装置、運指提示方法および訓練方法

Country Status (3)

Country Link
JP (1) JPWO2022190453A1 (ja)
CN (1) CN116940978A (ja)
WO (1) WO2022190453A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723938A (zh) * 2020-05-06 2020-09-29 华南理工大学 一种基于指法规则和强化学习的钢琴指法自动生成方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723938A (zh) * 2020-05-06 2020-09-29 华南理工大学 一种基于指法规则和强化学习的钢琴指法自动生成方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HOTTA, KEISUKE: "Study on the presentation of finger movement considering physical characteristics and musical interpretation", SPRING AND AUTUMN MEETING OF THE ACOUSTICAL SOCIETY OF JAPAN, ACOUSTICAL SOCIETY OF JAPAN, JP, 17 September 2010 (2010-09-17) - 17 September 2019 (2019-09-17), JP , pages 46 - 47, XP009540205, ISSN: 1880-7658 *
NAKAMURA, EITA ET AL.: "Fingering estimation by statistical learning method using fingering data and formulation of playing difficultly", IPSJ TECHNICAL REPORT, vol. 2019-MUS-124, no. 12, 20 August 2019 (2019-08-20), pages 1 - 16, XP009539748 *
SAKO, SHINJI ET AL.: "Automatic estimation of violin textbook fingering useful for beginners", IPSJ TECHNICAL REPORT, vol. 2019-MUS-123, no. 22, 15 June 2019 (2019-06-15), pages 1 - 6, XP009539747 *
SHINMURA, YUKA; SEKIZAWA, AKIRA; NAKAJIMA, KATSUTO: "E-011 Fingering Proposal from Music Note for Practicing String Instrument", PROCEEDINGS OF 18TH FORUM ON INFORMATION TECHNOLOGY (FIT2019); SEPTEMBER 3-5, 2019, vol. 18, no. 2, 20 August 2019 (2019-08-20) - 5 September 2019 (2019-09-05), pages 207 - 208, XP009539638 *
WATANABE, JURI ET AL.: "1T-01 Effective fingering estimation for beginner education of violin", PROCEEDINGS OF THE 81ST NATIONAL CONFERENCE OF IPSJ, INFORMATION PROCESSING SOCIETY OF JAPAN, JP, vol. 81, no. 2, 28 February 2019 (2019-02-28), JP, pages 2 - 2-336, XP009539640 *

Also Published As

Publication number Publication date
JPWO2022190453A1 (ja) 2022-09-15
CN116940978A (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
US8586849B1 (en) Media system and method of progressive instruction in the playing of a guitar based on user proficiency
US10748515B2 (en) Enhanced real-time audio generation via cloud-based virtualized orchestra
US10013963B1 (en) Method for providing a melody recording based on user humming melody and apparatus for the same
CN111602193B (zh) 用于处理乐曲的演奏的信息处理方法和装置
US8414369B2 (en) Music game system and method of providing same
US20110086704A1 (en) Music game system and method of providing same
US9734810B2 (en) Automatic harmony generation system
Syukur et al. Immersive and challenging experiences through a virtual reality musical instruments game: an approach to gamelan preservation
Krout Engaging iPad applications with young people with autism spectrum disorders
US10002598B2 (en) Selective pitch emulator for electrical stringed instruments
US8704067B2 (en) Musical score playing device and musical score playing program
CN110959172B (zh) 演奏解析方法、演奏解析装置以及存储介质
JP2013083845A (ja) 情報処理装置および方法、並びにプログラム
WO2022190453A1 (ja) 運指提示装置、訓練装置、運指提示方法および訓練方法
Fonteles et al. User experience in a kinect-based conducting system for visualization of musical structure
JP2019109357A (ja) 音楽情報の特徴解析方法及びその装置
CN111354327A (zh) 一种辅助弹奏方法、介质及智能钢琴
WO2022202199A1 (ja) コード推定装置、訓練装置、コード推定方法および訓練方法
WO2022244403A1 (ja) 楽譜作成装置、訓練装置、楽譜作成方法および訓練方法
JP5609520B2 (ja) 演奏評価装置および演奏評価プログラム
TWI696986B (zh) 智能鋼琴訓練系統
WO2023181570A1 (ja) 情報処理方法、情報処理システムおよびプログラム
WO2023139883A1 (ja) 信号処理装置、及び信号処理方法
Yang Modeling player performance in rhythm games
JP6632447B2 (ja) 運指決定プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21930299

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202180095314.2

Country of ref document: CN

Ref document number: 2023505094

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21930299

Country of ref document: EP

Kind code of ref document: A1