WO2018056311A1 - 演奏教習装置及び方法 - Google Patents

演奏教習装置及び方法 Download PDF

Info

Publication number
WO2018056311A1
WO2018056311A1 PCT/JP2017/033922 JP2017033922W WO2018056311A1 WO 2018056311 A1 WO2018056311 A1 WO 2018056311A1 JP 2017033922 W JP2017033922 W JP 2017033922W WO 2018056311 A1 WO2018056311 A1 WO 2018056311A1
Authority
WO
WIPO (PCT)
Prior art keywords
performance
sound
phrase
strength
display
Prior art date
Application number
PCT/JP2017/033922
Other languages
English (en)
French (fr)
Inventor
利也 池上
宇新 鄭
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to CN201780058042.2A priority Critical patent/CN109791758B/zh
Publication of WO2018056311A1 publication Critical patent/WO2018056311A1/ja
Priority to US16/357,897 priority patent/US11250722B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • G09B15/001Boards or like means for providing an indication of chords
    • G09B15/002Electrically operated systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/271Velocity sensing for individual keys, e.g. by placing sensors at different points along the kinematic path for individual key velocity estimation by delay measurement between adjacent sensor signals

Definitions

  • the present invention relates to a device and method for learning (or supporting) music performance by a user, and more particularly, to a performance learning device, a performance learning program, and a performance learning method for efficiently learning how to apply strength in music performance.
  • Patent Document 1 a circular figure corresponding to the velocity (sound intensity) of the sound event of the model (exemplary performance) and the velocity of the sound event of the user performance (sound intensity, that is, the strength of the performance operation)
  • a performance display device for displaying circular figures is described.
  • the performance display device disclosed in Patent Literature 1 after performing a user performance, the circular figure based on the user performance is compared and visually recognized with the circular figure of the model (exemplary performance).
  • it is possible to grasp the difference in the strength of the user performance operation with respect to (exemplary performance) it is necessary to appropriately grasp the strength of the performance operation to be performed (the strength of the sound to be performed) before performing the performance operation (or image) You can't).
  • the present invention has been made in view of the above-mentioned points.
  • the performance operation to be performed (strength of sound to be performed) can be appropriately grasped, and the performance operation is performed. It is an object of the present invention to provide a performance learning apparatus that can be practiced while being conscious of the strength of the music.
  • the performance training device supplies performance information for specifying sound generation timing and sound for each sound of the model performance, and each phrase obtained by dividing the model performance into a plurality of phrases
  • the performer prior to the timing at which performance of each phrase of the model performance is to be started, strength information indicating the strength of the sound for the phrase is acquired, and a common sound in the phrase is acquired based on the acquired strength information. Therefore, the performer (the user receiving the training) can know the strength of the sound to be performed in the phrase before the phrase to be performed. Thereby, the performance operation of the said phrase can be performed, being conscious of the strength of the performance for every phrase in model performance. Therefore, it is possible to appropriately perform performance practice that is conscious of the strength of the sound for each phrase.
  • the presenting means may be configured to present the intensity of the sound by at least a visible or audible technique. Furthermore, when presenting the strength of the sound by a visual and audible technique, the presenting means can visually recognize the strength of the sound not only at the timing preceding the phrase but also at the timing corresponding to the phrase. It may be configured to present it automatically. This makes it easy to visually recognize the presentation by the visible method.
  • the playback means when playing back an accompaniment performance associated with the exemplary performance, and playing back an accompaniment performance corresponding to each phrase, based on the strength information corresponding to the phrase, through the playback means And a means for adjusting the strength of the accompaniment performance sound reproduced.
  • the performer can easily grasp the strength of the performance operation of the phrase from the volume of the accompaniment performance for each phrase, and efficiently perform performance practice conscious of the strength of the sound for each phrase. be able to.
  • the apparatus further comprises means for acquiring user performance information indicating a sound played by the user in response to a performance operation performed by the user as the performance time progresses, wherein the user performance information is a sound intensity.
  • the presenting means may further be configured to present the strength of the sound played by the user based on the user performance information.
  • the presenting means further, at the timing of playing each phrase, based on a comparison between the strength information about the phrase and the strength of the sound played by the user based on the user performance information, It may be configured to present information indicating the difference between the strength and the strength of the sound in the user performance. As a result, it is possible to easily compare the strength of the sound for each phrase in the model performance and the strength of the sound in the user performance, thereby improving the learning performance.
  • the present invention can be implemented and configured not only as an apparatus invention but also as a method invention including steps corresponding to each component constituting the apparatus. Furthermore, the present invention can also be implemented as a non-transitory computer readable storage medium storing instructions executable by one or more processors to perform the above method.
  • the electrical configuration of the electronic keyboard instrument 1 will be described with reference to FIG.
  • the electronic keyboard instrument 1 includes a lesson function (learning function) and the like in addition to the function of generating a performance sound in response to the player operating the keyboard.
  • the performance learning apparatus according to the embodiment of the present invention Is incorporated in the interior.
  • the electronic keyboard instrument 1 includes a keyboard 10, a detection circuit 11, a user interface 12, a sound source circuit 13, an effect circuit 14, a sound system 15, a CPU 16, a timer 31, a RAM 18, a ROM 19, a data storage unit 20, a network interface 21, and the like.
  • the CPU 16 controls each unit by executing various programs stored in the ROM 19.
  • each unit includes the detection circuit 11, the user interface 12, the sound source circuit 13, and the network interface 21 that are connected to the CPU 16 via the bus 22.
  • the RAM 18 is used as a main storage device for the CPU 16 to execute various processes.
  • the data storage unit 20 stores music data in the MIDI (Musical Instrument Digital Interface) format.
  • the data storage unit 20 is realized by a non-transitory storage medium such as a flash memory.
  • the timer 31 counts the remaining time until the set time according to the instruction of the CPU 16, and outputs a signal to the CPU 16 when the remaining time becomes zero.
  • the keyboard 10 has a plurality of white keys and black keys corresponding to the pitch.
  • the detection circuit 11 transmits a performance detection signal generated by detecting the movement of the keyboard 10 to the CPU 16.
  • the CPU 16 generates MIDI format performance data based on the received performance detection signal.
  • the sound source circuit 13 performs signal processing on MIDI format data and outputs a digital audio signal.
  • the effect circuit 14 outputs a digital audio signal obtained by adding an effect such as reverb to the audio signal output from the sound source circuit 13.
  • the sound system 15 includes a digital-analog converter (not shown), an amplifier, a speaker, and the like.
  • the digital-analog converter converts the digital audio signal output from the effect circuit 14 into an analog audio signal and outputs the analog audio signal to the amplifier.
  • the amplifier amplifies the analog audio signal and outputs it to the speaker.
  • the speaker sounds according to the input analog audio signal.
  • the electronic keyboard instrument 1 generates a performance sound in response to the operation of the keyboard 10.
  • an automatic performance sound is generated based on the music data stored in the data storage unit 20.
  • the sounding of the automatic performance sound may be described as playback.
  • the user interface 12 includes a display (for example, a liquid crystal display) 121 and a plurality of operation buttons (not shown) such as a power button and a “start / stop” button.
  • the user interface 12 displays various setting screens, for example, on the display 121 according to instructions from the CPU 16.
  • the user interface 12 transmits an operation received by the operation button to the CPU 16 as a signal.
  • the network interface 21 performs LAN communication.
  • the CPU 16 is connected to the Internet via the network interface 21 and a router (not shown), and can download music data from a content server that provides music data connected to the Internet.
  • the user interface 12 is arranged on the back side of the keyboard 10 when viewed from the player who operates the keyboard 10. Thereby, the performer can perform while watching the display displayed on the display 121.
  • the electronic keyboard instrument 1 has a plurality of types of lesson functions.
  • the lesson function is mainly used for a lesson of a player's (user) pressing key on the keyboard 10 according to an embodiment of the present invention.
  • the “strength” of pressing the key can also be expressed as “speed” of pressing the key.
  • the detection circuit 11 detects the speed at which the key of the keyboard 10 is pressed, and outputs a signal indicating the detected speed as “velocity” data (data indicating the strength of the sound).
  • “velocity” data data indicating the strength of the sound.
  • the stronger the player presses the key the faster the key is pressed.
  • the stronger the player presses the key on the keyboard 10 the greater the “velocity” value and the greater the volume of the performance sound produced by the sound system 15.
  • a lesson function key press guide function for displaying a key for guiding a key to be pressed is known.
  • a lesson program combining a strength lesson function and a known key pressing guide function according to an embodiment of the present invention is executed.
  • the performer presses a key that is different from the model (exemplary performance) a sound with a different pitch is produced, so it is easy to notice that the performer has pressed the wrong key.
  • the strength of pressing the keyboard 10 performed by the performer is strong, weak, or similar to the model (exemplary performance). It is difficult to determine whether Therefore, specifically, the strength / weakness lesson function of the present embodiment is aimed at enabling the performer to push the keys of the keyboard 10 at three levels of strength. In other words, the sound intensity level is limited to three levels so that the player can easily discriminate the difference in intensity level.
  • the music data for the dynamic lesson function consists of a plurality of phrases, and one phrase consists of a plurality of sounds.
  • a learning program is set up so that the sound of the same level in the phrase is depressed a plurality of times.
  • the pitches of a plurality of sounds to be pressed in the same phrase may be the same or different as appropriate, but the same level is indicated for the strength of the sound.
  • the performer can easily bring the strength of the key pressing operation closer to the target strength level in the phrase by overlapping the key pressing a plurality of times with the same strength in one phrase.
  • the sound intensity for example, one of three levels
  • the player is audibly instructed to press the key by sounding a sound having a volume corresponding to the strength of the sound in the phrase.
  • a key press guide function that is performed in parallel with the dynamic lesson function provides a display for guiding the key to be played, and the timing at which the key should be pressed (sound generation timing) is visible to the performer. Informed.
  • the strength of pressing the key (one of three levels) is displayed on the display 121. Is displayed. Thereafter, a comparison result between the strength of the player pressing the key and the strength of the example is displayed on the display 121, and the player is instructed of the strength of the example of his / her performance.
  • an electronic keyboard instrument is used to audibly present the sound intensity prior to the sounding timing in order to make the player (user) imagine the sound intensity (size) according to the intensity lesson function.
  • the sound generated by 1 is referred to as a presentation sound
  • the display performed by the electronic keyboard instrument 1 to visually present the strength of the sound prior to the sound generation timing is referred to as a presentation level display.
  • the guide display of the key to be pressed in the vicinity of a predetermined tone generation timing (key operation timing) according to the key pressing guide function is referred to as a pitch guide display.
  • the strength level to be displayed is referred to as a target level
  • the strength level at which the player presses the key is referred to as a detection level.
  • a planar schematic diagram of the keyboard 10 (hereinafter referred to as a keyboard diagram) and a strength indicator are displayed.
  • the pitch guide display is realized by clearly indicating the pitch to be played on the keyboard diagram.
  • the strength indicator is an indicator that displays a strength level or the like.
  • the presentation level display is realized using a strength indicator. Details of the strength indicator will be described later.
  • a state where the pitch guide is displayed is referred to as an on state, and a state where the pitch guide is not displayed is referred to as an off state.
  • a state in which the presentation level is displayed by the strength indicator is referred to as an on state, and a state in which the guide display is not performed is referred to as an off state.
  • the target level (that is, the strength of sound in the model performance) is expressed by the number of “>” marks (hereinafter referred to as angle bracket marks).
  • the electronic keyboard instrument 1 displays a strong level as a display graphic consisting of eight angle bracket marks, a medium level as a display graphic consisting of four angle bracket marks, and a weak level as one peak. Display with a display figure consisting of parentheses.
  • the detection level (ie, played by the user) depends on the number of black marks (hereinafter referred to as black square marks).
  • the electronic keyboard instrument 1 displays a strong level as a display figure consisting of eight black square marks, a medium level as a display figure consisting of four black square marks, and a weak level as one black. Displayed as a display figure consisting of square marks.
  • the comparison result (that is, the comparison result between the strength of the sound in the model performance and the strength of the sound in the user performance, that is, information indicating the difference between them) is displayed as shown in FIG.
  • the electronic keyboard instrument 1 displays a display graphic indicating “strong”, which is a combination of a left angle bracket mark ( ⁇ ) and a black square mark.
  • a display graphic indicating “weak” is displayed, which is a combination of a right angle bracket (>) and a black square mark.
  • the music data used in this embodiment is data optimized for lessons, and is appropriately different from normal music data.
  • the music data of the present embodiment is composed of an intro part and a practice part.
  • music data as an exemplary performance is divided into a plurality of phrases.
  • an appropriate period is set for sequentially guiding keys to be sequentially pressed by the performer (user) in order to play the music.
  • the pitch guide display for prompting the key press is performed, after setting a certain period for the performer to press the key, the next pitch guide display is performed.
  • the music data includes music information (header information) and event information groups recorded in a plurality of tracks.
  • the music information (header information) includes information (information other than event information) such as the music name of the music data.
  • a plurality of pairs of data consisting of pairs of time information and events are arranged in accordance with an automatic performance and various display progress sequences related to the music.
  • An event is data for instructing the content of processing.
  • the time information is data indicating the processing time.
  • one or more tracks contain lesson data, and the other tracks contain accompaniment data.
  • Events include MIDI events “Note On” and “Note Off”, and Meta Events “Keyboard Display On”, “Keyboard Display Off”, “Strength Display On”, and “Strength Display Off”. .
  • “Keyboard display on”, “Keyboard display off”, “Strength display on”, and “Strength display off” are recorded in the lesson track.
  • a “note on” event for starting the presentation sound and a “note off” event for muting the presentation sound are also recorded in the lesson track.
  • the “note on” event is an event for instructing the start of sound generation of a certain sound (note)
  • the “note off” event is an event for instructing mute of a sound (note) being sounded.
  • the “note on” and “note off” events are accompanied by “note number”, “velocity”, and the like.
  • the “note number” is data for designating the pitch
  • the “velocity” is data representing the strength of the sound.
  • the presentation sound generated based on the “note on” or “note off” event for starting or muting the presentation sound is not necessarily the sound specified by the “note number”. Note that there is no need to have high.
  • the “note number” data associated with the “note on” or “note off” event used to start or mute the presentation sound is audible to multiple levels (eg, three levels) of sound.
  • Information that designates a specific sound corresponding to each stage of the presentation sound (level of sound intensity) for presentation, and the accompanying “velocity” data is used when Consists of information specifying the volume.
  • the unique sound corresponding to each stage of the presented sound is a unique tone and a unique sound such as “dog call”, “cat call”, and “bird call” as described later. It is a sound with high (time-varying pitch).
  • the value of “velocity” associated with the “note-on” event is not necessarily the present sound. Does not need to correspond to the level of the intensity of the sound to be presented, and may be an arbitrary value.
  • the present invention is not limited to this, and as a modification, a sound having a common tone color and / or a common pitch may be used as a unique sound corresponding to each stage of the presented sound.
  • the “velocity” value associated with the “note-on” event is set to a value corresponding to the level of the intensity of the sound to be presented, and the level of the sound is audible depending on the volume of the presentation sound. You may make it show to.
  • the “keyboard display on” and “keyboard display off” events are data for pitch guide display.
  • the “note number”, time information, and the like are attached to the “keyboard display on” and “keyboard display off” events.
  • the “note number” that accompanies each “keyboard display on” and “keyboard display off” event identifies the pitch of each note in the lesson song, and each “keyboard display on” and “keyboard display”.
  • the time information corresponding to the “off” event specifies the pronunciation timing of each sound in the lesson music. Accordingly, the “keyboard display on” and “keyboard display off” events and the corresponding time information correspond to performance information for specifying the sound generation timing and sound for each sound of the model performance.
  • “Strength display on” and “Strength display off” events are data for the presentation level display, and the “Strength display on” and “Strength display off” events include time information and “velocity” corresponding to the respective events. ”Is accompanied by data.
  • the second type is a type that performs the presentation level display in parallel with the corresponding phrase (hereinafter referred to as a second type).
  • Each event of “strong display on” and “strong display off” for the first type presentation level display has a relationship corresponding to each of the “note on” and “note off” events for the presentation sound,
  • the former is used to visually present the strength of sound common to the phrase preceding each phrase of the model performance, and the latter is used to audibly present the strength of sound common to the phrase.
  • the Therefore, the time information corresponding to the “strong display on” event for displaying the presentation level and the time information corresponding to the “note on” event for generating the presentation sound for the same phrase during the model performance are: The same timing is shown, and the strength of the sound in the same phrase is visually and audibly presented before the timing at which the performance of the phrase is to be started at the same timing.
  • the “velocity” data accompanying the “strong display on” event for displaying the presentation level is the level of sound intensity expressed by the “note on” event for the presented sound (the plurality of steps). The same strength level as any of the above).
  • the time information corresponding to the “strength display on” event for the first type of presentation level display and the “sound for presentation sound” for visually and audibly presenting the strength of each phrase of the model performance and the presentation sound “ The time information corresponding to the “note on” event is set to precede the start time of the corresponding phrase by a predetermined preceding time (for example, a time corresponding to one beat in a normal performance tempo).
  • the strength information of the sound (the first type “strong display on” event and the “note on” for the presentation sound) is acquired prior to the timing at which the performance of each phrase of the model performance should be started.
  • the player before performing the key pressing performance operation in the phrase, the player can be presented with the strength of the sound in the phrase (the strength of the key pressing operation).
  • An end code is recorded at the end of the track.
  • typical “velocity” data in the known MIDI standard takes a value of 0 to 127.
  • the lesson function in the present embodiment aims to be able to push the keys of the keyboard 10 with three levels of strength. For this reason, in the music data and the lesson function, it is sufficient that the velocity values are classified in accordance with the three levels of strong, medium and weak. As an example, a range of velocity values 1 to 42 is assigned to a weak level, a range of velocity values 43 to 84 is assigned to a medium level, and a range of velocity values 85 to 127 is assigned to a strong level.
  • the value of “velocity” data included in each event recorded in the lesson track is 3 as a value indicating a weak level, 64 as a value indicating a medium level, and 106 as a value indicating a strong level. Only the step values need be used. In other words, the “velocity” data associated with the “strong display on” event only needs to indicate one of such three values.
  • the electronic keyboard instrument 1 is configured to realize the functions of the reading unit 41, the comparison unit 42, the performance data generation unit 43, and the display data generation unit 44.
  • the reading unit 41, the comparison unit 42, the performance data generation unit 43, and the display data generation unit 44 are, for example, processing programs related to the learning method according to the present invention stored non-temporarily in the data storage unit 20. This is realized by executing a (task) by a processor (that is, the CPU 16 in FIG. 1).
  • the reading unit 41, the comparing unit 42, the performance data generating unit 43, and the display data generating unit 44 are composed of program modules (task modules) that are assembled so as to realize functions corresponding to the respective units.
  • the CPU 16 When a performer who wants to use the lesson function operates the user interface 12 to select desired music data, the CPU 16 reads the designated music data from the data storage unit 20 and stores it in the RAM 18. The performer who wishes to start the lesson function presses the “start / stop” key of the user interface 12.
  • the reading unit 41 determines that the “start / stop” key is pressed based on a signal from the user interface 12, the reading unit 41 sequentially reads time information and events included in each track of the music data stored in the RAM 18 from the top. A command defined by the event is output to the comparison unit 42, the display data generation unit 44, and the sound source circuit 13 at a timing according to the time information using the timer 31. Thus, the performance time is advanced, and the reading unit 41 corresponds to means for advancing the performance time.
  • the reading unit 41 uses the “note-on” or “note-off” command ( Message) E is supplied to the tone generator circuit 13, and “velocity” data d 1 accompanying the “note-on” event is supplied to the comparison unit 42. If the supplied “note-on” or “note-off” instruction E indicates “note-on” (pronunciation start), the tone generator circuit 13 reads the “note number” included in the “note-on” instruction E.
  • a sound signal of a specific sound corresponding to one of the three stages of presentation sounds is generated, and the volume corresponding to the “velocity” data included in the “note-on” instruction E is It is given to the generated sound signal.
  • the sound signal generated by the sound source circuit 13 is supplied to the sound system 15 via the effect circuit 14.
  • the presentation sound corresponding to the “note-on” command E is generated from the sound system 15.
  • the tone generator circuit 13 includes the “note number” included in the “note-off” command E. The generation of the sound signal of the presenting sound during the sound generation indicated by is terminated, and the presenting sound is muted.
  • the readout unit 41 reads “note-on” or “note-off” event for accompaniment sound as the performance time progresses.
  • the tone generator circuit 13 generates or silences an accompaniment sound signal in accordance with the supplied “note-on” or “note-off” command G for the accompaniment sound.
  • the accompaniment sound signal generated by the sound source circuit 13 is supplied to the sound system 15 via the effect circuit 14.
  • the accompaniment sound corresponding to the “note-on” and “note-off” instructions G for the accompaniment sound is generated from the sound system 15.
  • velocity data associated with the “note-on” command G for the accompaniment sound is adjusted so that the volume of the accompaniment sound reproduced in each phrase is adjusted to the same level as the strength of the model performance sound in the phrase. The value of is set.
  • the reading unit 41 selects “strong display on” or “ An instruction B “strong display off” or an instruction A “keyboard display on” or “keyboard display off” is supplied to the display data generation unit 44.
  • the display data generation unit 44 generates display data for turning on the pitch guide display when the instruction A “keyboard display ON” is supplied, and outputs the display data to the user interface 12. Further, when a command A “keyboard display off” is supplied, display data for turning off the pitch guide display is created and output to the user interface 12. Thereby, a pitch guide is displayed on the display 121.
  • the display data generation unit 44 generates display data for turning on the presentation level display and outputs the display data to the user interface 12 when the “B / W Display ON” command B is supplied. Further, when a command B “strong / weak display off” is supplied, display data for turning off the presentation level display is created and output to the user interface 12. Specifically, if the value of “velocity” associated with the command B for “strong / weak display on” is 22, the display data generation unit 44 creates display data including a display graphic for presenting a weak level, and the value is 64. If so, display data including a display graphic for presenting a medium level is generated. If the value is 106, display data including a display graphic for presenting a strong level is generated. As a result, the display level is displayed on the display 121.
  • the performance data generation unit 43 generates performance data based on the performance detection signal (signal indicating the performance operation performed by the user) output from the detection circuit 11 and outputs the performance data to the comparison unit 42, the sound source circuit 13, and the display data generation unit 44.
  • the performance data is data composed of events and the like. As in the case of the music data, there are “Note On”, “Note Off”, etc., and “Note On” and “Note Off” events are accompanied by “Note Number”, “Velocity”, etc. . In this case, “note number” indicates the pitch of the key pressed or released by the user, and “velocity” indicates the strength of the key pressing (sound intensity) by the user.
  • the performance data output from the performance data generation unit 43 is user performance information indicating the sound played by the user, and the user performance information is information indicating the strength of the performance operation by the user (that is, the strength of the sound). (Velocity data). Therefore, the performance data generation unit 43 corresponds to a means for acquiring user performance information indicating a sound played by the user in accordance with a performance operation performed by the user as the performance time progresses.
  • the performance data F output from the performance data generation unit 43 is supplied to the sound source circuit 13, and a sound signal having a pitch corresponding to the performance data F (“note on” or “note off” event) is generated by the sound source circuit 13. Is generated by The sound signal generated by the sound source circuit 13 is supplied to the sound system 15 via the effect circuit 14, whereby the user performance sound is generated from the sound system 15.
  • the display data generation unit 44 receives the “velocity” data C in the performance data output from the performance data generation unit 43, and displays the detection level on the strength indicator based on the “velocity” value. And output to the user interface 12. Specifically, the display data generation unit 44 generates display data for displaying a low-level display graphic if the “velocity” value is in the range of 1 to 42, and is in the middle level if the value is in the range of 43 to 84. Display data for displaying a display graphic is generated. If the value is in the range of 85 to 127, display data for displaying a high-level display graphic is generated. Thereby, the detection level C is displayed on the display 121.
  • the comparison unit 42 compares the “velocity” data C in the performance data output from the performance data generation unit 43 with the “velocity” data d1 of the music data output from the reading unit 41, and the comparison result D Is output to the display data generation unit 44.
  • the display data generation unit 44 generates display data for displaying the comparison result based on the input comparison result D, and outputs the display data to the user interface 12. Specifically, the comparison unit 42 first determines whether the value of the “velocity” data C in the performance data belongs to one of the three levels of weak level, medium level, and strong level.
  • the value is in the range of 1 to 42, it is judged as a weak level, if the value is in the range of 43 to 84, it is judged as a medium level, and if the value is in the range of 85 to 127, it is judged as a strong level.
  • the determined performance data level is the same as the level indicated by the “velocity” data d1 of the music data. As described above, if the value of the “velocity” data d1 of the music data is 22, it is a weak level, if the value is 64, it is a medium level, and if the value is 106, it is a strong level.
  • a comparison result D of “correct” is output to the display data generation unit 44.
  • the comparison result D “weak” is output to the display data generation unit 44.
  • the display data generation unit 44 generates a display graphic corresponding to the comparison result D and outputs it to the user interface 12.
  • the comparison result D is displayed on the display 121. Note that the display of the comparison result D is turned off, for example, in response to the command B for “strong / weak display off”.
  • FIG. 6 in the row of “pitch guide display”, an example of the pitch guide display is shown along the time axis, and the period during which the pitch guide display is on is indicated by a rectangular figure.
  • the “presentation level display” line of FIG. 6 an example of the presentation level display is shown along the time axis, the period in which the presentation level display is on is indicated by a rectangular figure, and the target in the presentation level display Differences in levels (strong, medium, and weak) are distinguished by attaching different hatchings to the rectangular figure.
  • the period during which the detection level corresponding to the key depression is displayed is also indicated by a specific rectangular figure (C), and the comparison result is displayed.
  • the period of time is also indicated by a specific rectangular figure (D).
  • the row of “presentation sound pronunciation” in FIG. 6 an example of pronunciation of the presentation sound is shown along the time axis, the period during which the presentation sound is pronounced is shown by a rectangular figure, and the presentation that is pronounced Differences in sound volume levels (strong, medium, and weak) are distinguished by attaching different hatchings to the rectangular figure.
  • the horizontal axis in FIG. 6 is a time axis, and starts from the timing when the performer presses the “start / stop” key.
  • FIG. 6 is a diagram for explaining the display and sound generation procedures of the electronic keyboard instrument 1 for the sake of convenience, and does not limit the relative length of the periods such as the on-state periods of the respective displays. . That is, the time axis on the horizontal axis in FIG. 6 does not indicate a uniform time scale.
  • the electronic keyboard instrument 1 starts playing the accompaniment in the intro part.
  • the “note” for the accompaniment sound of the intro part is adjusted so that the volume of the accompaniment sound of the intro part is adjusted to the same level as that of the sound set for the exemplary performance sound of the first phrase.
  • the value of velocity data associated with the “on” command G is set.
  • the volume of the accompaniment sound in the intro part is adjusted to a high level.
  • the electronic keyboard instrument 1 reads the “note-on” instruction E for the presentation sound read through the reading section 41 and the presentation level. Based on the instruction B for “strong / weak display on” for display, visual and audible presentation of the strength of the sound for the first phrase of the model performance is started. In the illustrated example, it is assumed that the intensity of the sound for the first phrase of the model performance is at a high level. Therefore, at time t1, the display of the strong level display graphic on the intensity indicator of the display 121 and the sound system are performed. 15 starts to generate a strong level presentation sound.
  • the presentation level display and the presentation sound generation are finished.
  • the type of sound varies depending on the level of sound intensity.
  • the strong sound type is a dog call (e.g. one)
  • the medium sound type is a cat call (e.g. meow)
  • the weak sound type is a bird call (e.g. meow) For example, Piyo).
  • the performer can present a sound (for example, “one”) corresponding to the strength of the sound of the first phrase (high, medium, or weak level).
  • the accompaniment sound can be heard, and the intensity of the sound of the first phrase can be imagined by looking at the display figure.
  • the music is controlled to move from the intro unit to the first phrase of the practice unit at time t3.
  • the following control is performed as the performance time progresses.
  • a performance (lesson music) sequentially instructed according to the key depression guide function (pitch guide display) is referred to as a model performance.
  • the instruction level “strength display ON” instruction B (strength information for instructing the intensity of the first phrase) read through the reading unit 41 is displayed.
  • the strength indicator display of a display figure indicating that the strength of the sound of the first phrase is at a high level is started.
  • the performer can visually confirm the strength of the sound of the first phrase with the display graphic even after entering the first phrase.
  • the volume of the accompaniment sound of the first phrase is adjusted to the same level as that of the sound set for the exemplary performance sound of the first phrase.
  • the pitch guide display for instructing the pitch of the first note N1 of the model performance is turned on based on the “keyboard display on” command A read through the reading unit 41.
  • the pitch guide display of the sound N1 is turned off based on the “keyboard display off” command A read through the reading unit 41. To do.
  • the performer determines the strength of the key pressing operation to be performed for the first phrase from the presentation sound generation and the presentation level display performed at the time t1 to t2 preceding the timing at which the performance of the first phrase is to be started.
  • the performer fails to press the first sound N1. Note that the period during which the pitch guide display is turned on is all the period TD in the music data, and therefore the description regarding the end of the pitch guide display is omitted hereinafter.
  • the electronic keyboard instrument 1 After time t5, between time t6 and time t7, the electronic keyboard instrument 1 performs a pitch guide display that indicates the pitch of the second note N2 of the model performance. Also in this case, the performer enters the first phrase in addition to the confirmation of the presentation sound generation and the presentation level display performed at the time t1 to t2 preceding the timing at which the performance of the first phrase should be started. While confirming the strength of the sound to be pressed from the presentation level display and the volume of the accompaniment sound, look at the keyboard diagram (pitch guide display), and the sounding timing and pitch to be pressed (N2 key) ) In the illustrated example, it is assumed that the player performs a key depression operation at a middle level from time t7 to time t8.
  • the performance data generating unit 43 in response to the detection circuit 11 detecting the key pressing operation, the performance data generating unit 43 generates a detection level C indicating the strength (medium level) of the key pressing operation, and the display 121. A medium level display graphic is displayed on the strength indicator in accordance with the generated detection level C. Then, a comparison result D indicating that the “medium level” relating to the key depression is “weaker” than the “strong level” as an example is output from the comparison unit 42, and display data for displaying the comparison result D is displayed on the user interface. When output to 12, the display of the display graphic corresponding to the comparison result D “weak” is started at time t8 on the strength indicator, and the display is ended at time t9.
  • the performer can know that the pressed key strength is “weaker” than the example, that is, the strength to be originally played.
  • the time from the time t9 when the display graphic relating to the phrase ends to the subsequent time t10 is set to a length of about 1 second, for example, as a breathing time.
  • a breathing time As will be described below, at time t10, sound generation and display for presenting the strength of the model performance sound in the next phrase are performed. Therefore, it becomes easier for the performer to confirm / visually confirm that the target level is switched by this breathing time.
  • the electronic keyboard instrument 1 reads the “note-on” for the presentation sound read via the reading unit 41.
  • the command E and the command B for “level display on” for displaying the presentation level visual and audible presentation of the strength of the sound for the second phrase of the model performance is started.
  • the display of the medium level display graphic and the sound system on the intensity indicator of the display 121 at time t10. 15 starts to generate a medium level presentation sound.
  • the presentation level display and the sound generation of the presentation sound are finished.
  • the music moves from the first phrase to the second phrase.
  • the instruction level “strength display ON” command B intensity instructing the strength of the second phrase sound
  • the instruction level “strength display ON” command B intensity instructing the strength of the second phrase sound
  • display of the “medium level” display graphic indicating the strength of the sound of the second phrase is started with the strength indicator.
  • the performer can visually confirm that the sound intensity of the second phrase is “medium level” even after entering the second phrase.
  • the volume of the accompaniment sound of the second phrase is adjusted to the “medium level” that is the same as the sound intensity set for the model performance sound of the second phrase.
  • a pitch guide display for instructing the pitch of the third tone N3 of the model performance based on the “keyboard display ON” command A read through the reading unit 41 is displayed.
  • the performer performs a key pressing operation at a strong level from time t14 to time t15.
  • a strong level display graphic is displayed on the strength indicator according to the detection level C.
  • a comparison result D indicating that the “strong level” relating to the key depression is “stronger” than the “medium level” as an example is output from the comparison unit 42, and display data for displaying the comparison result D is displayed on the user interface.
  • the strength indicator starts displaying the display graphic corresponding to the comparison result D of “strong” at time t15.
  • the electronic keyboard instrument 1 After time t15, between time t16 and t17, the electronic keyboard instrument 1 performs a pitch guide display that indicates the pitch of the fourth note N4 of the model performance. Also in this case, the performer enters the second phrase in addition to the confirmation by the presentation sound generation and the presentation level display performed at the time t10 to t11 preceding the timing at which the performance of the second phrase should be started. While confirming the strength of the sound to be pressed from the presentation level display and the volume of the accompaniment sound, seeing the keyboard diagram (pitch guide display), the sounding timing and pitch to be pressed (N4 key) ) In the illustrated example, it is assumed that the performer performs a key depression operation at a medium level from time t17 to time t18.
  • the display on the strength indicator is switched to a medium-level display graphic in accordance with the detection level C between times t17 and t18. Then, a comparison result D indicating that the “medium level” related to the key depression matches the “medium level” which is a model (“correct”) is output from the comparison unit 42, and at time t18, the comparison result D is displayed.
  • the strength indicator starts displaying the display graphic corresponding to the comparison result D “correct”, and ends the display at time t19.
  • the electronic keyboard instrument 1 reads the “note-on” for the presentation sound read via the reading unit 41.
  • the command E and the command B for “high / low display on” for displaying the presentation level visual and audible presentation of the strength of the sound for the third phrase of the model performance is started.
  • the strength of the sound for the third phrase of the model performance is at a weak level. Therefore, at time t20, the display of the weak level display graphic on the strength indicator of the display 121 and the sound system are performed.
  • the 15 starts sounding the weak level of the presentation sound, and ends the sounding of the presentation level display and the presentation sound display at time t11.
  • the music moves from the second phrase to the third phrase, and the volume of the accompaniment sound is switched from the medium level to the weak level.
  • the display of the weak level display figure is started with the strength indicator.
  • the display data generation unit 44 gives priority to late arrival when a “strong / weak display on” command, “strong / weak display off” command, performance data, and comparison results, which are commands related to the display of the strength indicator, are input.
  • a “strong / weak display on” command “strong / weak display off” command
  • performance data For example, when performance data is input at time t7, the display is switched from the display of the target level (presentation level display B) to the display of detection level C.
  • the comparison result is input at time t8, the display is switched to the display of comparison result D.
  • the display data generation unit 44 determines whether the display content in the strength indicator is the detection level C, the comparison result D, the target Regardless of the level (presentation level display B), the display of the strength indicator is turned off. Further, the “velocity” value of the accompaniment track of the music data is configured in advance to correspond to the “velocity” value of “strong display on” of the lesson track. Thereby, the electronic keyboard instrument 1 can adjust the volume of the accompaniment corresponding to the strength of the sound of the model performance in each corresponding phrase.
  • the “keyboard display on” and “keyboard display off” events (command A) and time information corresponding thereto correspond to performance information for specifying sound generation timing and sound for each sound of the model performance.
  • (Command E) corresponds to strength information that indicates the strength of sound for each phrase obtained by dividing the model performance into a plurality of phrases.
  • the data storage unit 20 supplies performance information specifying the sound generation timing and sound for each sound of the model performance, and indicates the strength of the sound for each phrase obtained by dividing the model performance into a plurality of phrases. It is an example of the supply means which supplies the strength information to do.
  • the configuration in which the reading unit 41 functions to sequentially read commands defined by each event from the data storage unit 20 (RAM 18) at a timing according to the time information is an example of a means for advancing performance time. is there.
  • the time information corresponding to the “strong display on” event for the presentation level display and the time information corresponding to the “note on” event for the presentation sound are the start time of each phrase of the model performance corresponding to the time information.
  • the display data generating unit 44 is set based on the reading output by the reading unit 41.
  • the display start timing of the presentation level display B displayed on the user interface 12 and the sound generation start timing of the presentation sound E generated from the sound system 15 via the sound source circuit 13 are as follows. Control is performed so as to precede the start time by the predetermined preceding time. Therefore, the presentation level display B is performed prior to the start time of each phrase by the cooperation of the reading unit 41, the display data generation unit 44, the user interface 12, the sound source circuit 13, and the sound system 15.
  • the strength information is acquired in advance of the timing at which the performance of the phrase should be started, It is an example of the presentation means which presents the strength of a common sound in the said phrase based on the acquired strength information.
  • performance guide means for guiding the sound to be played by the user as the performance time progresses based on the performance information of each sound of the model performance.
  • the performer can know the strength of the sound to be pressed by the presentation level display on the strength indicator and the sound of the presentation sound before the next phrase to be played. You can practice key-pressing operation while being conscious. Also, since the accompaniment volume in each phrase is adjusted to the target level in the phrase, the performer can practice while conscious of the strength of the performance operation by simultaneously listening to the accompaniment performance volume. Moreover, since the comparison result is displayed on the strength indicator, the performer can know the result of the performance performed by himself.
  • the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the spirit of the present invention.
  • the music data may not include the intro part but may include the practice part.
  • the electronic keyboard instrument 1 may be configured to include an appropriate insertion data generation unit.
  • the insertion data generation unit may present a sound strength presentation method (how to present a presentation sound and each of a plurality of predetermined steps (strong, medium, weak) before starting the performance of the practice unit).
  • the presentation level display method may be presented to the performer (user) sequentially as a sample.
  • the music information (header information) of the music data is configured to include information indicating samples of all strength levels used in the lesson track.
  • the sample information on the strength level to be included in the information (header information) includes all sample information on the small level, the medium level, and the strong level.
  • the insertion data generation unit is configured to display each of the small level, medium level, and strong level based on the sample information of the strength level in the music information (header information).
  • the commands “strong display on” and “strong display off” are sequentially output to the display data generation unit 44, and the respective “note on” and “note off” commands are sequentially output to the tone generator circuit 13.
  • the presentation level display of the low level, the medium level and the strong level as a sample, and the sound of the presentation sound are generated, so that the music data has no intro part. Even so, the sound of the presentation sound and the presentation level can be displayed before the practice section is played back.
  • the music data includes a “strong display on” and “strong display off” event for presentation level display and / or a “note on” and “note off” event for presentation sound in advance. Although it is stored (stored), these presentation level display and / or presentation sound events may not be included in the music data in advance (not stored).
  • the reading unit 41 reads the predetermined preceding time (for example, one beat) from the start timing of the next incoming phrase. And a command “B” for displaying the presentation level and a “note-on” command E for the presentation sound may be generated and output at the determined timing. .
  • the “velocity” data associated with the “keyboard display on” event at the beginning of the next incoming phrase is prefetched, and the “level display” for the presentation level display to be generated is based on the prefetched “velocity” data.
  • “Velocity” data (strength information) associated with the “B” command B and the “note on” command E of the presentation sound may be generated.
  • at least the “keyboard display on” event at the beginning of each phrase is accompanied by “velocity” data indicating the strength of the key (sound strength) to be pressed in accordance with the event.
  • a “strong display off” command B corresponding to the generated “strong / weak display on” command B and a “note off” command E corresponding to the “note on” command E are respectively predetermined.
  • the reading unit 41 automatically generates and outputs.
  • the music data includes (stores) a “strong / weak display on” event for presentation level display and / or a “note on” event for presentation sound in advance.
  • dedicated time information corresponding to the event for the presentation sound is not included (not stored), and these events are arranged at the same time position as the “keyboard display on” event for the performance guide at the head of each corresponding phrase. (Remember). That is, the “strong display ON” event for the presentation level display and / or the “note on” event for the presentation sound does not have dedicated time information and is arranged (stored) at the same time position. Time information corresponding to the “keyboard display on” event is used.
  • the reading unit 41 reads the predetermined preceding time from the start timing of the next phrase.
  • the timing that precedes the time (for example, one beat) is determined, and at the determined timing, the presentation level display arranged (stored) at the same time position as the “keyboard display ON” event at the head of the phrase
  • Pre-reading the command B for “strong display on” and the command “note on” E for the presentation sound the command B for “strong display on” and the “note on” command for the presentation sound for the pre-read presentation level display E is output.
  • the “strong display ON” event for presentation level display and the “note on” event for presentation sound included (stored) in the practice section include strength information indicating the strength of the sound. Therefore, the pre-read instruction level “B” for displaying the presentation level and the “note on” instruction E for the presentation sound include strength information indicating the strength of the sound. In this case as well, the “strong display OFF” instruction B corresponding to the output “strong display ON” instruction B and the “note OFF” instruction E corresponding to the “note ON” instruction E are respectively predetermined. After the time elapses, the reading unit 41 may automatically generate and output.
  • the “velocity” value of the accompaniment track of the music data is configured in advance to correspond to the “velocity” value of “strong display on” of the lesson track. It is not limited.
  • a “phrase mark” may be inserted in the accompaniment track or lesson track as an event to indicate phrase switching.
  • the “phrase mark” has the same “velocity” as the “phrase display ON” of the same phrase.
  • the presentation level display is continuously displayed in one frame.
  • the present invention is not limited to this.
  • the display is intermittently displayed before the pitch guide display. Also good.
  • cry of animals is exemplified as the type of sound of the presentation sound, it is not limited to this.
  • it may be a tone of a musical instrument such as a cymbal, a drum, a whistle, or a piano sound. In this case, a chord may be used.
  • the pitch guide display is described as clearly indicating the pitch with a keyboard diagram.
  • this lesson function is a lesson of strength, a figure that does not clearly indicate the pitch, such as a circle without a keyboard diagram, may be displayed. Further, the key pressing guide function (pitch guide display) may not be provided.
  • the period during which the presentation level display is turned off when the target level is changed is described as being about 1 second, for example.
  • the present invention is not limited to this.
  • the off period may be set to a time corresponding to a note value of, for example, a quarter note or a half note.
  • the playback tempo may be a value included in the music data, or may be a tempo set by the performer on the user interface 12 of the electronic keyboard instrument 1.
  • the present invention is not limited to this. Until the target level is changed, the on-state of the latest presentation level display may be maintained, and thereby the display figure may be switched without interruption. In this case, since the display data generation unit 44 processes the input signal with priority on arrival, the “strong display off” event located before the “strong display on” event in the music data may be omitted.
  • the pitch guide display is performed once, but the number of times is not limited to this.
  • the pitch guide display may be performed a plurality of times after the presentation sound is pronounced once or a plurality of times, or the pitch guide display may be performed once after the presentation sound is pronounced a plurality of times, or It is good also as a structure performed several times.
  • the presentation sound pronunciation and the presentation level display level are presented in three stages.
  • the present invention is not limited to this, and the presentation is performed in two levels of strong and weak, or in four or more levels. Also good.
  • the “velocity” value is divided into the range of 1 to 42, 43 to 84, and 85 to 127 when presented in three stages.
  • the present invention is not limited to these values. .
  • a configuration in which the performer can freely set the level range by operating the user interface 12, for example, or a different range depending on the music data may be used.
  • it is good also as a structure set in the different range for every genre of music.
  • prescribed preceding time for showing a presentation level display and / or a presentation sound ahead of sound generation timing is not limited to the time equivalent to 1 beat. , May be shorter than one beat.
  • the predetermined lead time is a time corresponding to one beat, it matches the tempo count feeling of the performer, so that it becomes easy for the performer to perform a key press operation with the strength of the presented sound, preferable.
  • the display of the strength indicator is not limited to the above embodiment.
  • the configuration in which the target level (presentation level display), the detection level, and the comparison result are switched has been described. However, all or any two of them may be displayed at the same time.
  • the display graphic is not limited to the above embodiment.
  • the target level may be displayed in characters such as strong, medium, and weak, or may be displayed in a different color depending on the level.
  • the target level (presentation level display) may be displayed without blinking, and the detection level may be displayed with blinking, and the display form may be different depending on the type of display.
  • the comparison result is displayed.
  • evaluations such as “good / bad” and score display may be displayed.
  • items such as pitch and / or operation timing related to the key pressing operation may be evaluated.
  • the reading unit 41, the comparing unit 42, the performance data generating unit 43, and the display data generating unit 44 are executed by the CPU 16 (general-purpose processor) executing a required program (processing or task).
  • the CPU 16 general-purpose processor
  • the present invention is not limited to this, and may be realized by a dedicated electric circuit, or may be realized by combining a process executed by the CPU 16 and a dedicated electric circuit.
  • the music data is stored in the data storage unit 20, it is not limited to this.
  • the music data may be downloaded from the server via the network interface 21.
  • the configuration of the electronic keyboard instrument 1 is not limited to the above.
  • a configuration may be adopted in which music data is stored, for example, a storage medium such as a DVD or a USB memory and an interface for transmitting and receiving data.
  • the network interface 21 has been described as performing LAN communication, the present invention is not limited to this.
  • a configuration may be adopted in which communication conforms to standards of other networks such as MIDI, USB, Bluetooth (registered trademark), and the like.
  • the processing is executed using music data stored in a communication device such as a PC connected to the network or using music data transmitted from a remote place. You may do it.
  • the music data is data in the MIDI format, it is not limited thereto, and may be audio data, for example.
  • the audio data may be converted to MIDI data and the process may be executed.
  • the music data has been described as having a plurality of tracks, the present invention is not limited to this, and may be configured by one track.
  • the electronic keyboard instrument 1 includes the timer 31, the timer function may be realized by the CPU 16 executing a program.
  • the electronic keyboard instrument 1 using the keyboard 10 as a performance operator is described as an example.
  • the present invention is not limited to this.
  • the present invention can be applied to a musical instrument or an electronic musical instrument in which a sound is generated by blowing, or a sound is generated by repelling a string or a thin stick-shaped operation element.
  • it may be configured to include a sensor for detecting the moving speed of the operation element and to display the level of the performance level according to the detection signal.
  • the volume of the performance sound may be detected by, for example, a microphone and the volume may be displayed as a strong or weak level.
  • the main configuration for realizing the performance learning apparatus and / or method according to the present invention is achieved by the CPU 16 (that is, the processor) executing a necessary computer program or processing procedure.
  • the performance training device according to the present invention in the above-described embodiment supplies performance information for specifying sound generation timing and sound for each sound of the model performance, and for each phrase obtained by dividing the model performance into a plurality of phrases.
  • a storage device (the data storage unit 20, RAM 18) for supplying strength information for instructing sound intensity, an output device (the user interface 12, the sound source circuit 13, the sound system 15), and a processor (the CPU 16).
  • the processor advances the performance time (a program or a task that realizes the function of the reading unit 41), and each phrase of the exemplary performance as the performance time progresses
  • the strength information is acquired in advance of the timing at which the performance of the phrase should be started, and the acquired strength Based on the information, it is configured to execute, via the output device, a common sound intensity in the phrase (a program or a task that realizes the functions of the reading unit 41 and the display data generation unit 44). ing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

模範演奏の各音について発音タイミングと音を特定する演奏情報を供給し、該模範演奏を複数フレーズに分割した各フレーズについての音の強弱を指示する強弱情報を供給する。演奏時間の進行に伴って、該模範演奏の各フレーズについて、該フレーズの演奏を開始すべきタイミングに先行して該強弱情報を取得し、取得した強弱情報に基づき該フレーズにおいて共通の音の強弱を提示する。この音の強弱は、可視的又は可聴的な手法で提示される。例えば、1フレーズ目に入る時刻t3の1拍前の時刻t1にて、押鍵すべき強さを強弱インジケータで表示し、押鍵すべき強さに応じた音を発音する。また、1フレーズ目に入ると、伴奏を押鍵すべき強さに応じた音量で再生する。これにより、演奏者は、模範演奏の各フレーズに先行して表示および音にて該フレーズにおける押鍵操作の強弱を知ることができるので、フレーズ毎に音の強弱を意識しながら、演奏練習することができる。

Description

演奏教習装置及び方法
 本発明は、ユーザによる音楽演奏を教習(若しくは支援)する装置及び方法に関し、特に、音楽演奏における強弱の付け方を効率的に教習するための演奏教習装置、演奏教習プログラム、および演奏教習方法に関する。
 特許文献1には、手本(模範演奏)の発音イベントのベロシティ(音の強弱)に応じた円形図形と、ユーザ演奏の発音イベントのベロシティ(音の強弱、つまり演奏操作の強弱)に応じた円形図形とを表示する演奏表示装置が記載されている。特許文献1に開示された演奏表示装置によれば、ユーザ演奏を行った後に該ユーザ演奏に基づく前記円形図形を手本(模範演奏)の前記円形図形とを対比・視認することにより、手本(模範演奏)に対するユーザ演奏の操作の強弱の違いを把握することはできるが、演奏操作を行う前に、行うべき演奏操作の強弱(演奏すべき音の強弱)を適切に把握する(若しくはイメージする)ことはできない。
特開2002-091290号公報
 本発明は上述の点に鑑みてなされたもので、演奏操作を行う前に、行うべき演奏操作の強弱(演奏すべき音の強弱)を適切に把握することができるようにし、もって、演奏操作の強弱を意識しながら、練習することができる演奏教習装置を提供することを目的とする。
 上記目的を達成するために、本発明願に係る演奏教習装置は、模範演奏の各音について発音タイミングと音を特定する演奏情報を供給し、かつ、前記模範演奏を複数フレーズに分割した各フレーズについての音の強弱を指示する強弱情報を供給する供給手段と、演奏時間を進行させる手段と、前記演奏時間の進行に伴って、前記模範演奏の各フレーズについて、該フレーズの演奏を開始すべきタイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該フレーズにおいて共通の音の強弱を提示する提示手段、を備える。
 本発明によれば、模範演奏の各フレーズの演奏を開始すべきタイミングに先行して当該フレーズについての音の強弱を指示する強弱情報を取得し、取得した強弱情報に基づき当該フレーズにおいて共通の音の強弱を提示するので、演奏者(教習を受けるユーザ)は演奏すべきフレーズの前に、該フレーズにおいて演奏操作すべき音の強弱を知ることができる。これにより、模範演奏におけるフレーズ毎の演奏の強弱を意識しながら、当該フレーズの演奏操作を行うことができる。したがって、フレーズ毎の音の強弱を意識した演奏練習を適切に行うことができる。
 一実施例において、前記提示手段は、前記音の強弱を、少なくとも可視的又は可聴的な手法で提示するように構成されていてよい。さらに、前記提示手段は、前記音の強弱を、可視的及び可聴的な手法で提示する場合、当該フレーズに先行するタイミングのみならず、当該フレーズに対応するタイミングにおいても、前記音の強弱を可視的に提示するように構成されていてよい。これにより、可視的手法による提示物が視認しやすいものとなる。
 一実施例において、前記模範演奏に関係付けられた伴奏演奏を再生する再生手段と、各フレーズに対応する伴奏演奏を再生するとき、該フレーズに対応する前記強弱情報に基づき、前記再生手段を介して再生される伴奏演奏音の強弱を調整する手段、をさらに備えてよい。これにより、演奏者はフレーズ毎の伴奏演奏の音量から、当該フレーズの演奏操作の強弱を容易に把握することができるようになり、フレーズ毎の音の強弱を意識した演奏練習を効率的に行うことができる。
 一実施例において、前記演奏時間の進行に伴って行われるユーザによる演奏操作に応じて、ユーザにより演奏された音を示すユーザ演奏情報を取得する手段をさらに備え、前記ユーザ演奏情報は音の強弱を示す情報を含み、前記提示手段は、さらに、前記ユーザ演奏情報に基づき、前記ユーザにより演奏された音の強弱を提示するように構成されていてよい。前記提示手段は、さらに、各フレーズを演奏すべきタイミングにおいて、該フレーズについての前記強弱情報と前記ユーザ演奏情報に基づく前記ユーザにより演奏された音の強弱との比較に基づき、該フレーズにおける音の強弱と前記ユーザ演奏における音の強弱との相違を示す情報を提示するように構成されていてよい。これにより、模範演奏におけるフレーズ毎の音の強弱とユーザ演奏における音の強弱との対比が容易に行えることになり、教習性能が向上する。
 本発明は、装置の発明として構成及び実施し得るのみならず、前記装置を構成する各構成要素に対応するステップを備える方法の発明として実施及び構成されてよい。さらに、本発明は、上記方法を実行するために、1以上のプロセッサにより実行可能な命令群を記憶した、非一過性のコンピュータ読み取り可能な記憶媒体として実装することもできる。
本発明の一実施形態に係る電子鍵盤楽器の電気的構成を示すブロック図である。
目標レベルと表示を説明する図である。
検出レベルと表示を説明する図である。
比較結果と表示を説明する図である。
本発明の一実施形態に係る電子鍵盤楽器の機能ブロック図である。
レッスン機能を説明するタイミングチャート図である。
 <電子鍵盤楽器の構成>
 電子鍵盤楽器1の電気的構成について図1を用いて説明する。電子鍵盤楽器1は、演奏者が鍵盤を操作するのに応じて、演奏音を発音する機能の他に、レッスン機能(教習機能)などを備えており、本発明の実施例に係る演奏教習装置をその内部に組み込んでなるものである。
 電子鍵盤楽器1は、鍵盤10、検出回路11、ユーザインターフェース12、音源回路13、効果回路14、サウンドシステム15、CPU16、タイマ31、RAM18、ROM19、データ記憶部20、ネットワークインターフェース21などを備えている。CPU16はROM19に記憶されている各種のプログラムを実行することによって、各部を制御する。ここで、各部とは、バス22を介してCPU16と接続される検出回路11、ユーザインターフェース12、音源回路13、およびネットワークインターフェース21などである。RAM18は、CPU16が各種の処理を実行するための主記憶装置として用いられる。データ記憶部20は、MIDI(Musical Instrument Digital Interface;登録商標)形式の楽曲データなどを記憶する。データ記憶部20は、例えばフラッシュメモリなどのような非一過性記憶媒体で実現される。タイマ31はCPU16の命令に従って、設定時間までの残り時間をカウントし、残り時間が0となると、CPU16に信号を出力する。
 鍵盤10は音高に対応した白鍵および黒鍵を複数備えている。検出回路11は鍵盤10の動きを検出して生成する演奏検出信号をCPU16へ送信する。CPU16は受信した演奏検出信号に基づいてMIDI形式の演奏データを生成する。
 音源回路13は、MIDI形式のデータに信号処理を行い、デジタルオーディオ信号を出力する。効果回路14は、音源回路13から出力されるオーディオ信号に例えばリバーブなどの効果を付加したデジタルオーディオ信号を出力する。サウンドシステム15は、不図示のデジタルアナログ変換器、アンプ、およびスピーカなどを有する。デジタルアナログ変換器は、効果回路14から出力されるデジタルオーディオ信号をアナログオーディオ信号に変換し、アンプへ出力する。アンプは、アナログオーディオ信号を増幅し、スピーカへ出力する。スピーカは入力されるアナログオーディオ信号に応じて発音する。このように、電子鍵盤楽器1は鍵盤10の操作に応じて、演奏音を発音する。また、データ記憶部20に記憶されている楽曲データに基づいて、自動演奏音を発音する。以下、自動演奏音を発音することを、再生すると記載する場合がある。
 ユーザインターフェース12は、ディスプレイ(例えば液晶ディスプレイ)121および不図示の、電源ボタン、「スタート/ストップ」ボタンなどの複数の操作ボタンを有する。ユーザインターフェース12は、CPU16の命令に従って、例えば各種の設定画面などをディスプレイ121に表示する。また、ユーザインターフェース12は操作ボタンで受け付けた操作を信号としてCPU16へ送信する。ネットワークインターフェース21は、LAN通信を行う。CPU16は、ネットワークインターフェース21および不図示のルータを介してインターネットと接続し、インターネットに接続されている楽曲データを提供するコンテンツサーバから楽曲データをダウンロードすることができる。
 尚、ユーザインターフェース12は、鍵盤10を操作する演奏者から見て、鍵盤10の奥側に配置されている。これにより、演奏者は、ディスプレイ121に表示される表示を見ながら演奏することができる。
 <レッスン機能の概要>
 次に、電子鍵盤楽器1のレッスン機能(演奏教習装置としての機能)の概要について説明する。電子鍵盤楽器1は複数の種類のレッスン機能を有するが、ここでは、主に、本発明の一実施例に係る演奏者(ユーザ)が鍵盤10の鍵を押す強さをレッスンするためのレッスン機能(強弱レッスン機能)について説明する。尚、鍵を押す「強さ」は、鍵を押す「速さ」とも表現できる。演奏者は、大きな音を出したい時には、鍵盤10の鍵を強く押す。検出回路11は、鍵盤10の鍵が押される速さを検出し、検出した速さを示す信号を「ベロシティ」データ(音の強弱を表すデータ)として出力する。演奏者が鍵を強く押すほど、鍵が押される速さは速くなるとされている。演奏者が鍵盤10の鍵を強く押すほど、「ベロシティ」の値は大きく、サウンドシステム15が発音する演奏音の音量は大きくなる。なお、押鍵すべき鍵をガイドするための表示を行うレッスン機能(押鍵ガイド機能)が公知である。以下では、本発明の一実施例に係る強弱レッスン機能と公知の押鍵ガイド機能とを組み合わせた教習プログラムを遂行する例について説明する。
 さて、演奏者が手本(模範演奏)とは異なる鍵を押してしまった場合には、異なる音高の音が発音されるので、演奏者自身が間違った鍵を押してしまったことに気づき易い。これに対し、特に、演奏者が初心者である場合、演奏者自身が行っている鍵盤10を押す強さが、手本(模範演奏)に対して、強いのか、弱いのか、あるいは、同程度なのかを判別することは難しい。そこで、本実施形態の強弱レッスン機能は、具体的には、演奏者が鍵盤10の鍵を3つのレベルの強さで押し分けられるようになる事を目標としている。つまり、演奏者が容易に強さのレベルの違いを判別できるように、音の強弱のレベルを3段階に限定している。
 一実施例に係る教習用の楽曲データ構成の概略をここで簡単に説明する。強弱レッスン機能のための楽曲データは複数のフレーズからなり、1フレーズは複数音からなる。具体的には、強弱レッスン機能のための各フレーズでは、該フレーズ内で同じレベルの強さの音を複数回押鍵するように教習プログラムが組まれている。この場合、同じフレーズ内で押鍵すべき複数の音の音高は同じであってもよいし適宜異なっていてもよいが、音の強弱は同じレベルが指示される。これにより、演奏者は、1フレーズ内で同じ強弱で押鍵を複数回重ねることで、押鍵操作の強さを該フレーズにおける目標の強弱レベルに近づけ易くなる。したがって、複数音からなるフレーズ単位で強弱レッスンを行うことは、レッスン効能を向上させるので、有利である。この強弱レッスンにおいては、まず、或るフレーズの演奏を開始すべきタイミングに先行して、該フレーズにおいて演奏操作すべき音の強弱(例えば3段階のレベルのいずれか)を演奏者に対して可視的及び/又は可聴的に提示する。例えば可聴的な提示にあっては、当該フレーズにおける音の強弱に対応する音量の音を発音することにより、演奏者に鍵を押す強さを聴覚的に指示する。また、強弱レッスン機能に並行して行われる押鍵ガイド機能により、演奏操作すべき鍵をガイドする表示を行い、かつ、該鍵を押鍵操作すべきタイミング(発音タイミング)を演奏者対して可視的に報知する。演奏者が該押鍵ガイド機能により指示された鍵を、前記強弱レッスン機能により提示された強さで、押すと、該鍵を押した強さ(3段階のレベルのいずれか)がディスプレイ121に表示される。その後、演奏者が鍵を押した強さと手本の強さとの比較結果をディスプレイ121に表示し、演奏者に自身の演奏の手本に対する強弱を教示する。
 以後の説明において、強弱レッスン機能にしたがって、音の強弱(大きさ)を演奏者(ユーザ)にイメージさせるために、発音タイミングに先行して音の強弱を可聴的に提示するために電子鍵盤楽器1が発音する音を提示音と称し、発音タイミングに先行して音の強弱を可視的に提示するために電子鍵盤楽器1が行う表示を提示レベル表示と称する。また、押鍵ガイド機能にしたがって、所定の発音タイミング(鍵操作タイミング)の近傍で該押鍵すべき鍵をガイド表示することを、音高ガイド表示と称する。また、提示レベル表示において、表示する強さのレベルを目標レベルと称し、演奏者が鍵を押した強さのレベルを検出レベルと称する。
 <表示画面>
 次に、レッスン機能の実行中におけるディスプレイ121の表示画面について説明する。表示画面には、鍵盤10の平面化された模式図(以降、鍵盤図と称する)および強弱インジケータが表示される。音高ガイド表示は、鍵盤図に演奏すべき音高が明示されることで実現される。強弱インジケータは、強さのレベルなどを表示するインジケータである。提示レベル表示は、強弱インジケータを用いて実現される。尚、強弱インジケータの詳細については後述する。また、鍵盤図にて、音高ガイド表示がされている状態をオン状態、音高ガイド表示がされていない状態をオフ状態と称する。同様に、強弱インジケータにて、提示レベル表示がされている状態をオン状態、ガイド表示がされていない状態をオフ状態と称する。
 <強弱インジケータ>
 次に、図2~4を用いて、いくつかのタイプの強弱インジケータについて説明する。図2に示すように、提示レベル表示では、「>」マーク(以下、山括弧マークという)の個数により、目標レベル(つまり、模範演奏における音の強弱)が表現される。電子鍵盤楽器1は、強レベルを、8個の山括弧マークからなる表示図形で表示し、中レベルを、4個の山括弧マークからなる表示図形で表示し、弱レベルを、1個の山括弧マークからなる表示図形で表示する。図3に示すように、演奏者が鍵を押した強さの表示では、黒で塗りつぶした四角からなるマーク(以下、黒四角マークという)の個数により、検出レベル(つまり、ユーザにより演奏された音の強弱)が表現される。電子鍵盤楽器1は、強レベルを、8個の黒四角マークからなる表示図形で表示し、中レベルを、4個の黒四角マークからなる表示図形で表示し、弱レベルを、1個の黒四角マークからなる表示図形で表示する。比較結果(つまり、模範演奏における音の強弱とユーザ演奏における音の強弱との比較結果、すなわち両者の相違を示す情報)は、図4に示すように表示される。電子鍵盤楽器1は、検出レベルが目標レベルに対して強い場合には、左向きの山括弧マーク(<)と黒四角マークの組合せからなる、「強い」を示す表示図形を表示する。検出レベルが目標レベルの範囲内である場合には、黒四角マークのみからなる、「正しい」を示す表示図形を表示する。検出レベルが目標レベルに対して弱い場合には、右向きの山括弧マーク(>)と黒四角マークの組合せからなる、「弱い」を示す表示図形を表示する。
 <楽曲データ>
 次に、本実施例で使用される楽曲データについて説明する。本実施例で使用される楽曲データは、レッスン用に最適化されたデータであり、通常の楽曲データとは適宜異なっている。本実施例の楽曲データは、イントロ部および練習部で構成されている。練習部においては、模範演奏としての楽曲データが複数のフレーズに分割されている。また、練習部においては、楽曲演奏のために演奏者(ユーザ)が順次に押圧すべき鍵を順次にガイドするために適当な期間が設定されている。つまり、押鍵を促す音高ガイド表示を行った次に演奏者に押鍵させるための或る期間を設定した後、次の音高ガイド表示がなされるように構成されている。
 楽曲データは、楽曲情報(ヘッダ情報)および複数のトラックに記録されたイベント情報群を含む。楽曲情報(ヘッダ情報)は、楽曲データの楽曲名などの情報(イベント情報以外の情報)を含む。各トラックには、時間情報とイベントとの対からなる複数対のデータが当該楽曲に関連する自動演奏及び各種表示の進行シーケンスにしたがって配列されている。イベントとは、処理の内容を指示するデータである。時間情報とは、処理する時間を指示するデータである。複数のトラックのうち、1又はそれ以上のトラックには、レッスン用のデータが収められており、その他のトラックには、伴奏用のデータが収められている。イベントには、MIDIイベントである「ノートオン」および「ノートオフ」と、メタイベントである「鍵盤表示オン」、「鍵盤表示オフ」、「強弱表示オン」、および「強弱表示オフ」などがある。尚、「鍵盤表示オン」、「鍵盤表示オフ」、「強弱表示オン」、および「強弱表示オフ」は、レッスン用のトラックに記録されている。また、提示音を発音開始させるための「ノートオン」イベント及び提示音を消音させるための「ノートオフ」イベントも、レッスン用のトラックに記録されている。
 周知のように、「ノートオン」イベントは或る音(ノート)の発音開始を指示するイベントであり、「ノートオフ」イベントは発音中の或る音(ノート)の消音を指示するイベントであり、「ノートオン」および「ノートオフ」イベントには、「ノートナンバー」、「ベロシティ」などが付随している。「ノートナンバー」とは、音高を指定するデータであり、「ベロシティ」とは、音の強弱を表すデータである。しかし、以下の説明においては、専ら、本発明の実施例にしたがって提示音を発音開始又は消音させるための使用される「ノートオン」又は「ノートオフ」イベントに関してのみ説明する。後述するように、そのような提示音を発音開始又は消音させるための「ノートオン」又は「ノートオフ」イベントに基づいて発音される該提示音は、必ずしも前記「ノートナンバー」によって指定される音高を持つ必要がないことに注意されたい。一例として、提示音を発音開始又は消音させるための使用される「ノートオン」又は「ノートオフ」イベントに付随する「ノートナンバー」のデータは、複数段階(例えば3段階)の音の強弱を可聴的に提示するための提示音の各段階(音の強弱のレベル)に対応する固有の音を指定する情報からなり、それに付随する「ベロシティ」のデータは、該固有の音を発音するときの音量を指定する情報からなる。一例として、前記提示音の各段階に対応する固有の音とは、後述するように「犬の鳴き声」、「猫の鳴き声」、「鳥の鳴き声」のような、固有の音色と固有の音高(時変動する音高)とを持つ音である。この場合、当該提示音によって可聴的に提示される音の強弱のレベルは、該固有の音によって識別可能であるため、「ノートオン」イベントに付随する「ベロシティ」の値は、必ずしも当該提示音が提示しようとする音の強弱のレベルに対応している必要はなく、任意の値であってよい。しかし、これに限らず、変形例として、前記提示音の各段階に対応する固有の音として、共通の音色及び/又は共通の音高を持つ音を使用してもよく、その場合は、「ノートオン」イベントに付随する「ベロシティ」の値を当該提示音が提示しようとする音の強弱のレベルに対応する値に設定し、当該提示音が発する音量によって、音の強弱のレベルを可聴的に提示するようにしてもよい。
 「鍵盤表示オン」および「鍵盤表示オフ」イベントは、音高ガイド表示のためのデータである。「鍵盤表示オン」および「鍵盤表示オフ」イベントには、「ノートナンバー」及び時間情報などが付随している。各「鍵盤表示オン」および「鍵盤表示オフ」イベントに付随する「ノートナンバー」は、レッスン楽曲中の各音の音高を特定するものであり、また、各「鍵盤表示オン」および「鍵盤表示オフ」イベントに対応する時間情報は、レッスン楽曲中の各音の発音タイミングを特定するものである。したがって、前記「鍵盤表示オン」および「鍵盤表示オフ」イベントとそれに対応する時間情報は、模範演奏の各音について発音タイミングと音を特定する演奏情報に相当する。
 「強弱表示オン」および「強弱表示オフ」イベントは、前記提示レベル表示のためのデータであり、該「強弱表示オン」および「強弱表示オフ」イベントには、それぞれに対応する時間情報と「ベロシティ」データなどが付随している。一実施例として、前記提示レベル表示のための「強弱表示オン」および「強弱表示オフ」イベントには、2つのタイプがあり、1つは、対応するフレーズの開始に先行して前記提示レベル表示を行うタイプ(以下、第1タイプという)であり、もう1つは、該対応するフレーズに並行して前記提示レベル表示を行うタイプ(以下、第2タイプという)である。第1タイプの提示レベル表示用の「強弱表示オン」および「強弱表示オフ」の各イベントは、前記提示音用の「ノートオン」および「ノートオフ」の各イベントにそれぞれ対応する関係にあり、前者が模範演奏の各フレーズに先行して該フレーズにおいて共通の音の強弱を可視的に提示するために使用され、後者が該フレーズにおいて共通の音の強弱を可聴的に提示するために使用される。したがって、模範演奏中の同じフレーズに関する前記提示レベル表示のための「強弱表示オン」イベントに対応する時間情報と、前記提示音を発音するための「ノートオン」イベントに対応する時間情報とは、同じタイミングを示し、同じタイミングで該同じフレーズにおける音の強弱を、該フレーズの演奏を開始すべきタイミングに先行して、可視的及び可聴的に提示するようになっている。勿論、同じフレーズに関して、前記提示レベル表示用の「強弱表示オン」イベントに付随する「ベロシティ」データは、前記提示音用の「ノートオン」イベントによって表現される音の強弱のレベル(前記複数段階のいずれか)と同じ強弱レベルを示す。なお、模範演奏の各フレーズの強弱を可視的及び可聴的に提示するための、前記第1タイプの提示レベル表示用の前記「強弱表示オン」イベントに対応する時間情報および前記提示音用の「ノートオン」イベントに対応する時間情報は、それに対応するフレーズの開始時点よりも、所定先行時間(例えば通常の演奏テンポにおける1拍分の時間)だけ先行するように設定されている。これにより、模範演奏の各フレーズの演奏を開始すべきタイミングに先行して当該音の強弱情報(前記第1タイプの「強弱表示オン」イベント及び前記提示音用の「ノートオン」)を取得することができるものとなり、後述するように、当該フレーズにおける押鍵演奏操作を行う前に、演奏者に対して、当該フレーズにおける音の強弱(押鍵操作の強弱)を提示することができる。尚、トラックの最後には、終了コードが記録されている。
 尚、公知のMIDI規格における典型的な「ベロシティ」データは、0~127の値をとる。上記したように、本実施例におけるレッスン機能は、鍵盤10の鍵を3つのレベルの強さで押し分けられるようにできる事を目標としている。このため、楽曲データおよびレッスン機能では、強・中・弱の3段階のレベルに対応させて、ベロシティ値が区分されるようになっていればよい。一例として、ベロシティ値の1~42の範囲が弱レベルに割り当てられ、ベロシティ値の43~84の範囲が中レベルに割り当てられ、ベロシティ値の85~127の範囲が強レベルに割り当てられる。また、レッスン用のトラックに記録された各イベントに含まれる「ベロシティ」データの値としては、弱レベルを示す値として22、中レベルを示す値として64、強レベルを示す値として106、の3段階の値のみを使用すればよい。すなわち、「強弱表示オン」イベントに付随する「ベロシティ」データは、そのような3段階の値のいずれかを示すものであればよい。
 <機能ブロック>
 次に、電子鍵盤楽器1によって実現しうる複数の機能について、図5の機能ブロック図により説明する。電子鍵盤楽器1は、上記した構成の他に、読み出し部41、比較部42、演奏データ生成部43、および表示データ生成部44の機能を実現しうるように構成されている。これらの読み出し部41、比較部42、演奏データ生成部43、および表示データ生成部44は、例えば、データ記憶部20に非一過性で記憶された本発明に係る教習方法に関連する処理プログラム(タスク)をプロセッサ(つまり、図1のCPU16)が実行することにより実現される。その場合、これらの読み出し部41、比較部42、演奏データ生成部43、および表示データ生成部44は、それぞれに対応する機能を実現するように組まれたプログラムモジュール(タスクモジュール)からなる。
 レッスン機能を使用したい演奏者が、ユーザインターフェース12を操作して、所望の楽曲データを選択すると、CPU16は指定された楽曲データをデータ記憶部20から読み出して、RAM18に記憶させる。レッスン機能を開始したい演奏者は、ユーザインターフェース12の「スタート/ストップ」キーを押下する。
 読み出し部41は、ユーザインターフェース12からの信号により、「スタート/ストップ」キーが押下されたと判断すると、RAM18に記憶されている楽曲データの各トラックに含まれる時間情報およびイベントを先頭から順に読み出し、前記タイマ31を用いて該時間情報に従ったタイミングで、該イベントにより規定された命令を比較部42、表示データ生成部44、音源回路13に出力する。こうして、演奏時間が進行されるようになっており、前記読み出し部41は、演奏時間を進行させる手段に相当する。
 演奏時間の進行に伴い、処理すべきイベントが、提示音用の「ノートオン」又は「ノートオフ」イベントであれば、前記読み出し部41は、該「ノートオン」又は「ノートオフ」の命令(メッセージ)Eを音源回路13に供給し、かつ、当該「ノートオン」イベントに付随する「ベロシティ」データd1を比較部42に供給する。音源回路13は、供給された該「ノートオン」又は「ノートオフ」の命令Eが「ノートオン」(発音開始)を指示するならば、該「ノートオン」の命令Eに含まれる「ノートナンバー」データに従い前記3段階の提示音のいずれか1段階に対応する固有の音の音信号を生成し、かつ、該「ノートオン」の命令Eに含まれる「ベロシティ」データに応じた音量を該生成した音信号に付与する。音源回路13で生成された音信号は、効果回路14を経由してサウンドシステム15に供給される。これにより、サウンドシステム15から、前記「ノートオン」の命令Eに応じた提示音が発音される。音源回路13は、供給された該「ノートオン」又は「ノートオフ」の命令Eが「ノートオフ」(消音)を指示するならば、該「ノートオフ」の命令Eに含まれる「ノートナンバー」によって指示される発音中の前記提示音の前記音信号の生成を終了し、該提示音を消音する。
 一方、演奏時間の進行に伴い、処理すべきイベントが、伴奏音用の「ノートオン」又は「ノートオフ」イベントであれば、前記読み出し部41は、該伴奏音用の「ノートオン」又は「ノートオフ」の命令(メッセージ)Gを音源回路13に供給する。音源回路13は、供給された該伴奏音用の「ノートオン」又は「ノートオフ」の命令Gに応じて伴奏音信号を生成又は消音する。音源回路13で生成された伴奏音信号は、効果回路14を経由してサウンドシステム15に供給される。これにより、サウンドシステム15から、前記伴奏音用の「ノートオン」及び「ノートオフ」の命令Gに応じた伴奏音が発音される。なお、各フレーズにおいて再生される伴奏音の音量は、当該フレーズにおける模範演奏音の強弱と同じレベルに調整されるように、例えば該伴奏音用の「ノートオン」の命令Gに付随するベロシティデータの値が設定される。
 処理すべきイベントが「強弱表示オン」、「強弱表示オフ」、「鍵盤表示オン」、「鍵盤表示オフ」のいずれかであれば、読み出し部41は、当該イベントに係る「強弱表示オン」又は「強弱表示オフ」の命令B若しくは「鍵盤表示オン」又は「鍵盤表示オフ」の命令Aを表示データ生成部44に供給する。表示データ生成部44は、「鍵盤表示オン」の命令Aが供給されると音高ガイド表示をオン状態にする表示データを作成し、ユーザインターフェース12に出力する。また、「鍵盤表示オフ」の命令Aが供給されると、音高ガイド表示をオフ状態にする表示データを作成し、ユーザインターフェース12に出力する。これにより、ディスプレイ121にて音高ガイド表示がなされる。
 また、表示データ生成部44は、「強弱表示オン」の命令Bが供給されると、提示レベル表示をオン状態にする表示データを作成して、ユーザインターフェース12に出力する。また、「強弱表示オフ」の命令Bが供給されると、提示レベル表示をオフ状態にする表示データを作成して、ユーザインターフェース12に出力する。詳しくは、表示データ生成部44は「強弱表示オン」の命令Bに付随する「ベロシティ」の値が22であれば弱レベルを提示するための表示図形を含む表示データを作成し、値が64であれば中レベルを提示するための表示図形を含む表示データを作成し、値が106であれば強レベルを提示するための表示図形を含む表示データを作成する。これにより、ディスプレイ121にて、提示レベル表示がなされる。
 演奏データ生成部43は、検出回路11から出力される演奏検出信号(ユーザによる演奏操作を示す信号)に基づき演奏データを作成し、比較部42、音源回路13、および表示データ生成部44へ出力する。演奏データはイベントなどで構成されているデータである。イベントには、前記楽曲データと同様に、「ノートオン」、「ノートオフ」などがあり、「ノートオン」および「ノートオフ」イベントには「ノートナンバー」、「ベロシティ」などが付随している。なお、この場合、「ノートナンバー」は、ユーザが押鍵又は離鍵操作した鍵の音高を示し、「ベロシティ」はユーザによる押鍵操作の強弱(音の強弱)を示している。演奏データ生成部43から出力される前記演奏データは、ユーザにより演奏された音を示すユーザ演奏情報であり、該ユーザ演奏情報は、ユーザによる演奏操作の強弱(つまり、音の強弱)を示す情報(ベロシティデータ)を含むものである。したがって、演奏データ生成部43は、前記演奏時間の進行に伴って行われるユーザによる演奏操作に応じて、ユーザにより演奏された音を示すユーザ演奏情報を取得する手段に相当する。演奏データ生成部43から出力された演奏データFは、音源回路13に供給され、該演奏データF(「ノートオン」又は「ノートオフ」イベント)に対応する音高を持つ音信号が音源回路13により生成される。音源回路13で生成された音信号は、効果回路14を経由してサウンドシステム15に供給され、これにより、サウンドシステム15からユーザ演奏音が発音される。
 表示データ生成部44は、演奏データ生成部43から出力される演奏データ中の「ベロシティ」のデータCを入力し、その「ベロシティ」の値に基づいて、強弱インジケータに検出レベルを表示する表示データを生成してユーザインターフェース12へ出力する。詳しくは、表示データ生成部44は「ベロシティ」の値が1~42の範囲であれば弱レベルの表示図形を表示する表示データを生成し、値が43~84の範囲であれば中レベルの表示図形を表示する表示データを生成し、値が85~127の範囲であれば強レベルの表示図形を表示する表示データを生成する。これにより、ディスプレイ121にて、検出レベルCの表示がなされる。
 比較部42は、演奏データ生成部43から出力される演奏データ中の「ベロシティ」のデータCと、読み出し部41から出力される楽曲データの「ベロシティ」データd1とを比較し、その比較結果Dを表示データ生成部44へ出力する。表示データ生成部44は、入力される比較結果Dに基づき、比較結果を表示する表示データを生成し、ユーザインターフェース12へ出力する。詳しくは、まず、比較部42は演奏データ中の「ベロシティ」のデータCの値が、弱レベル、中レベル、強レベルの3段階のうちどれに属するかを判断する。値が1~42の範囲であれば弱レベルであり、値が43~84の範囲であれば中レベルであり、値が85~127の範囲であれば強レベルであると判断する。次に、判断した演奏データのレベルが楽曲データの「ベロシティ」データd1が示すレベルと同じか否かを判断する。上記したように、楽曲データの「ベロシティ」データd1の値が22であれば弱レベルであり、値が64であれば中レベルであり、値が106であれば強レベルである。演奏データに基づくレベルが、楽曲データに基づくレベルと同じであると判断した場合には、「正しい」という比較結果Dを表示データ生成部44へ出力する。一方、演奏データに基づくレベルが、楽曲データに基づくレベルと同じでないと判断した場合には、演奏データに基づくレベルが楽曲データに基づくレベルより大きいか否かを判断する。演奏データに基づくレベルが、楽曲データに基づくレベルよりも大きいと判断した場合には、「強い」という比較結果Dを表示データ生成部44へ出力する。一方、演奏データに基づくレベルが、楽曲データに基づくレベルよりも小さいと判断した場合には、「弱い」という比較結果Dを表示データ生成部44へ出力する。表示データ生成部44は、比較結果Dに応じた表示図形を生成し、ユーザインターフェース12へ出力する。これにより、ディスプレイ121にて、比較結果Dの表示がなされる。なお、比較結果Dの表示は、例えば、「強弱表示オフ」の命令Bに応じてオフされる。
 <レッスン機能の詳細>
 次にレッスン機能の詳細について図6を用いて説明する。図6において、「音高ガイド表示」の行においては、音高ガイド表示の一例を時間軸に沿って示しており、音高ガイド表示がオン状態の期間を矩形図形で示している。図6の「提示レベル表示」の行においては、提示レベル表示の一例を時間軸に沿って示しており、提示レベル表示がオン状態の期間を矩形図形で示し、かつ、該提示レベル表示における目標レベルの違い(強・中・弱)を該矩形図形内に異なるハッチングを付すことで区別している。なお、図6の「提示レベル表示」の行においては、押鍵に応じた検出レベルを表示している期間も特有の矩形図形(C)で示しており、かつ、前記比較結果を表示している期間も特有の矩形図形(D)で示している。図6の「提示音発音」の行においては、提示音を発音する一例を時間軸に沿って示しており、該提示音を発音している期間を矩形図形で示し、かつ、発音する該提示音の音量レベルの違い(強・中・弱)を該矩形図形内に異なるハッチングを付すことで区別している。図6の「押鍵」の行においては、演奏者による押鍵操作例を時間軸に沿って示しており、該演奏者が押鍵操作している期間を矩形図形で示している。なお、図6の横軸は時間軸であり、演奏者が「スタート/ストップ」キーを押したタイミングを起点としている。ただし、図6は、電子鍵盤楽器1の表示および発音の手順を便宜的に説明するための図であり、例えば各表示のオン状態の期間などの期間の相対的な長短を限定するものではない。すなわち、図6横軸の時間軸は、均一な時間スケールを示すものではない。
 「スタート/ストップ」キーが押下されると、電子鍵盤楽器1は、イントロ部の伴奏の再生を開始する。この場合、イントロ部の伴奏音の音量は、1フレーズ目の模範演奏音のために設定されている音の強弱と同じレベルに調整されるように、例えば該イントロ部の伴奏音用の「ノートオン」の命令Gに付随するベロシティデータの値が設定される。図示例では、1フレーズ目の模範演奏の音の強弱は強レベルに設定されているため、イントロ部の伴奏音の音量は強レベルに調整される。イントロ部の後半、例えば1フレーズ目に入る1拍前の時刻t1において、電子鍵盤楽器1は、前記読み出し部41を介して読み出した前記提示音用の「ノートオン」の命令Eと前記提示レベル表示用の「強弱表示オン」の命令Bに基づいて、模範演奏の1フレーズ目についての該音の強弱の可視的及び可聴的提示を開始する。図示例において、模範演奏の1フレーズ目についての該音の強弱は強レベルであると仮定しているので、時刻t1において、前記ディスプレイ121の強弱インジケータにおける強レベルの表示図形の表示と前記サウンドシステム15を介した強レベルの提示音の発音とを開始する。時刻t1から所定の期間TD経過後の時刻t2で、該提示レベル表示および該提示音発音を終了する。尚、提示音は、音の強弱のレベルに依存して、音の種類が異なる。ここでは、強レベルの音の種類は犬の鳴き声(例えば、ワン)であり、中レベルの音の種類は猫の鳴き声(例えば、ニャー)であり、弱レベルの音の種類は鳥の鳴き声(例えば、ピヨ)である。これにより、練習部の1フレーズ目に入る前に、演奏者は、該1フレーズ目の音の強弱(強、中、弱のいずれかのレベル)に応じた、提示音(例えば「ワン」)と伴奏音とを聞くことができ、また、表示図形を見ることで、該1フレーズ目の音の強弱をイメージすることができる。
 前記読み出し部41による読み出しに基づき、時刻t3で楽曲はイントロ部から練習部の1フレーズ目に移行するように制御される。時刻t3以後は、前記読み出し部41による読み出しに基づき、演奏時間の進行に伴って、以下に述べるような制御が行われる。なお、練習部において、押鍵ガイド機能(音高ガイド表示)にしたがって順次指示される演奏(レッスン楽曲)を模範演奏と言う。まず、1フレーズ目が開始する時刻t3では、前記読み出し部41を介して読み出した前記提示レベル表示用の「強弱表示オン」の命令B(1フレーズ目の音の強弱を指示する強弱情報)に基づき、前記強弱インジケータで該1フレーズ目の音の強弱が強レベルであることを示す表示図形の表示を開始する。これにより、演奏者は、1フレーズ目に入った後も、該1フレーズ目の音の強弱を該表示図形で目視確認することができる。また、前述のとおり、1フレーズ目の伴奏音の音量は、該1フレーズ目の模範演奏音のために設定されている音の強弱と同じレベルに調整される。次に、時刻t4では、前記読み出し部41を介して読み出した前記「鍵盤表示オン」の命令Aに基づいて、模範演奏の最初の音N1の音高を指示する音高ガイド表示をオン状態とする。次に、時刻t4から前記所定期間TD経過後の時刻t5では、前記読み出し部41を介して読み出した前記「鍵盤表示オフ」の命令Aに基づいて該音N1の音高ガイド表示をオフ状態とする。こうして、演奏者は、1フレーズ目の演奏を開始すべきタイミングに先行する前記時刻t1~t2で行われた提示音発音と提示レベル表示から該1フレーズ目で行うべき押鍵操作の強さを直前に把握した上で、さらに、該1フレーズ目に入って行われている伴奏音の音量から押鍵操作すべき音の強弱を確認しつつ、鍵盤図(音高ガイド表示)を見て、押鍵すべき発音タイミングと音高(N1の鍵)を知ることができる。なお、図示例においては、演奏者は、最初の音N1を押鍵し損ねている。尚、音高ガイド表示をオン状態にする期間は、楽曲データにおいて、すべて期間TDであるため、音高ガイド表示の終了に関する説明は、以後、省略する。
 時刻t5の後、時刻t6~t7の間で、電子鍵盤楽器1は、模範演奏の2番目の音N2の音高を指示する音高ガイド表示を行う。この場合も、演奏者は、1フレーズ目の演奏を開始すべきタイミングに先行する前記時刻t1~t2で行われた提示音発音と提示レベル表示による確認に加えて、該1フレーズ目に入っても行われる提示レベル表示と伴奏音の音量から押鍵操作すべき音の強弱を確認しつつ、鍵盤図(音高ガイド表示)を見て、押鍵すべき発音タイミングと音高(N2の鍵)を知ることができる。図示例においては、時刻t7から時刻t8まで、演奏者が、中レベルで押鍵操作したと仮定している。この場合、前記検出回路11が当該押鍵操作を検出するのに応じて、前記演奏データ生成部43により当該押鍵操作の強さ(中レベル)を示す検出レベルCが生成され、前記ディスプレイ121における強弱インジケータには、該生成された検出レベルCに応じて中レベルの表示図形が表示される。そして、押鍵に係る「中レベル」は手本である「強レベル」よりも「弱い」ことを示す比較結果Dが比較部42から出力され、該比較結果Dを表示する表示データがユーザインターフェース12へ出力されると、強弱インジケータにおいて、「弱い」という該比較結果Dに対応する表示図形の表示が時刻t8から開始され、時刻t9で該表示が終了される。これにより、演奏者は、押鍵した強さが、手本、つまり本来演奏すべき強さよりも「弱い」ことを知ることができる。尚、当該フレーズに関する表示図形を終了する時刻t9からその後の時刻t10までの時間は、息継ぎの時間として、例えば1秒程度の長さに設定される。次に述べるように、時刻t10において、次のフレーズにおける模範演奏の音の強弱を提示する発音及び表示が行われる。したがって、この息継ぎの時間により、演奏者は、目標レベルが切り替わることを確認/視認し易くなる。
 前述と同様に、1フレーズ目の後半、例えば2フレーズ目に入る1拍前の時刻t10において、電子鍵盤楽器1は、前記読み出し部41を介して読み出した前記提示音用の「ノートオン」の命令Eと前記提示レベル表示用の「強弱表示オン」の命令Bに基づいて、模範演奏の2フレーズ目についての該音の強弱の可視的及び可聴的提示を開始する。図示例において、模範演奏の2フレーズ目についての該音の強弱は中レベルであると仮定しているので、時刻t10において、前記ディスプレイ121の強弱インジケータにおける中レベルの表示図形の表示と前記サウンドシステム15を介した中レベルの提示音の発音を開始する。時刻t10から所定期間TD経過後の時刻t11で、提示レベル表示および提示音の発音を終了する。
 次に、時刻t12で楽曲は1フレーズ目から2フレーズ目に移行する。前述と同様に、2フレーズ目が開始する時刻t12では、前記読み出し部41を介して読み出した前記提示レベル表示用の「強弱表示オン」の命令B(2フレーズ目の音の強弱を指示する強弱情報)に基づき、前記強弱インジケータで該2フレーズ目の音の強弱を示す「中レベル」表示図形の表示を開始する。これにより、演奏者は、2フレーズ目に入った後も、該2フレーズ目の音の強弱が「中レベル」であることを目視確認することができる。また、前述のとおり、2フレーズ目の伴奏音の音量は、該2フレーズ目の模範演奏音のために設定されている音の強弱と同じ「中レベル」に調整される。次に、時刻t13~t14では、前記読み出し部41を介して読み出した前記「鍵盤表示オン」の命令Aに基づいて、模範演奏の3番目の音N3の音高を指示する音高ガイド表示が行われる。図示例においては、時刻t14から時刻t15まで、演奏者が、強レベルで押鍵操作したと仮定している。この場合、強弱インジケータには、検出レベルCに応じて強レベルの表示図形が表示される。そして、押鍵に係る「強レベル」は手本である「中レベル」よりも「強い」ことを示す比較結果Dが比較部42から出力され、該比較結果Dを表示する表示データがユーザインターフェース12へ出力されると、強弱インジケータにおいては、「強い」という該比較結果Dに対応する表示図形の表示が時刻t15から開始される。
 時刻t15の後、時刻t16~t17の間で、電子鍵盤楽器1は、模範演奏の4番目の音N4の音高を指示する音高ガイド表示を行う。この場合も、演奏者は、2フレーズ目の演奏を開始すべきタイミングに先行する前記時刻t10~t11で行われた提示音発音と提示レベル表示による確認に加えて、該2フレーズ目に入っても行われる提示レベル表示と伴奏音の音量から押鍵操作すべき音の強弱を確認しつつ、鍵盤図(音高ガイド表示)を見て、押鍵すべき発音タイミングと音高(N4の鍵)を知ることができる。図示例においては、時刻t17から時刻t18まで、演奏者が、中レベルで押鍵操作したと仮定している。この場合、強弱インジケータにおける表示は、時刻t17~t18の間、検出レベルCに応じて中レベルの表示図形に切り替えられる。そして、押鍵に係る「中レベル」は手本である「中レベル」に一致する(「正しい」)ことを示す比較結果Dが比較部42から出力され、時刻t18で、該比較結果Dを表示する表示データがユーザインターフェース12へ出力されると、強弱インジケータにおいては、「正しい」という該比較結果Dに対応する表示図形の表示が開始され、時刻t19で、該表示を終了する。
 前述と同様に、2フレーズ目の後半、例えば3フレーズ目に入る1拍前の時刻t20において、電子鍵盤楽器1は、前記読み出し部41を介して読み出した前記提示音用の「ノートオン」の命令Eと前記提示レベル表示用の「強弱表示オン」の命令Bに基づいて、模範演奏の3フレーズ目についての該音の強弱の可視的及び可聴的提示を開始する。図示例において、模範演奏の3フレーズ目についての該音の強弱は弱レベルであると仮定しているので、時刻t20において、前記ディスプレイ121の強弱インジケータにおける弱レベルの表示図形の表示と前記サウンドシステム15を介した弱レベルの提示音の発音を開始し、時刻t11で提示レベル表示および提示音表示の発音を終了する。次に、時刻t22で楽曲は2フレーズ目から3フレーズ目に移行し、伴奏音の音量は中レベルから弱レベルに切り替わる。また、強弱インジケータで弱レベル表示図形の表示を開始する。尚、その後、読み出し部41が演奏データの終了コードを読み出した場合、あるいは「スタート/ストップ」キーが押下された場合、電子鍵盤楽器1は楽曲データの再生を終了する。
 次に、楽曲データおよび機能ブロックについて、説明を補足する。図6に例示した内容の楽曲データのレッスン用のトラックには、例えば、練習部の時刻t3から時刻t9に対応する部分のイベントとして、「強弱表示オン」、「鍵盤表示オン」、「鍵盤表示オフ」、「鍵盤表示オン」、「鍵盤表示オフ」、「強弱表示オフ」が順に並んでいる。尚、鍵盤10における演奏データFとして複数の「ノートオン」が入力された場合には、音源回路13は、複数の「ノートオン」に対応するデジタルオーディオ信号を出力する。これにより、演奏データFに応じた複数の音が重複して、サウンドシステム15から発音される。一方、表示データ生成部44は、強弱インジケータの表示に関する命令である、「強弱表示オン」の命令、「強弱表示オフ」の命令、演奏データ、比較結果、が入力されると、後着優先で処理する。例えば、時刻t7で、演奏データが入力されると、表示を、目標レベル(提示レベル表示B)の表示から検出レベルCの表示に切り替える。時刻t8で、比較結果が入力されると表示を比較結果Dの表示に切替える。また、時刻t9で、「強弱表示オフ」の命令Bが表示データ生成部44に入力されると、表示データ生成部44は、強弱インジケータにおける表示内容が検出レベルCか、比較結果Dか、目標レベル(提示レベル表示B)かにかかわらず、強弱インジケータの表示をオフ状態にする。また、楽曲データの伴奏用のトラックの「ベロシティ」の値は、予め、レッスン用トラックの「強弱表示オン」の「ベロシティ」の値に対応するように構成されている。これにより、電子鍵盤楽器1は、伴奏の音量を対応する各フレーズにおける模範演奏の音の強弱に対応して調整することができる。
 上述した実施例において、前記「鍵盤表示オン」および「鍵盤表示オフ」イベント(命令A)とそれに対応する時間情報は、模範演奏の各音について発音タイミングと音を特定する演奏情報に相当する。また、前記提示レベル表示用の前記「強弱表示オン」および「強弱表示オフ」イベントとそれに付随する「ベロシティ」データ(命令B)並びに前記提示音用の前記「ノートオン」および「ノートオフ」イベント(命令E)は、模範演奏を複数フレーズに分割した各フレーズについての音の強弱を指示する強弱情報に相当する。したがって、データ記憶部20(RAM18)は、模範演奏の各音について発音タイミングと音を特定する演奏情報を供給し、かつ、前記模範演奏を複数フレーズに分割した各フレーズについての音の強弱を指示する強弱情報を供給する供給手段の一例である。また、前記読み出し部41が、前記時間情報に従ったタイミングで各イベントにより規定された命令をデータ記憶部20(RAM18)から順次読み出すように機能する構成は、演奏時間を進行させる手段の一例である。また、前記提示レベル表示用の前記「強弱表示オン」イベントに対応する時間情報および前記提示音用の「ノートオン」イベントに対応する時間情報は、それに対応する該模範演奏の各フレーズの開始時刻よりも、前記所定先行時間(例えば通常の演奏テンポにおける1拍分の時間)だけ先行するように設定されており、したがって、前記読み出し部41による読み出し出力に基づいて前記表示データ生成部44を介して前記ユーザインターフェース12で表示される前記提示レベル表示Bの表示開始タイミングおよび前記音源回路13を介して前記サウンドシステム15から発音される前記提示音Eの発音開始タイミングが、それに対応する各フレーズの開始時刻よりも、前記所定先行時間だけ先行するように制御されることになる。したがって、前記読み出し部41、前記表示データ生成部44、前記ユーザインターフェース12、前記音源回路13、前記サウンドシステム15の協働により、各フレーズの開始時刻に先行して前記提示レベル表示Bを行いかつ前記提示音Eを発音するようにした構成は、前記演奏時間の進行に伴って、前記模範演奏の各フレーズについて、該フレーズの演奏を開始すべきタイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該フレーズにおいて共通の音の強弱を提示する提示手段の一例である。また、前記読み出し部41による読み出し出力(「鍵盤表示オン」および「鍵盤表示オフ」の命令A)に基づき前記表示データ生成部44を介して前記ユーザインターフェース12を介して押鍵ガイドを行う構成は、前記模範演奏の各音の前記演奏情報に基づき、前記演奏時間の進行に伴って、前記ユーザが演奏すべき音をガイドする演奏ガイド手段の一例である。
 以上、説明した実施形態によれば、次のような効果を奏する。演奏者は、次に演奏すべきフレーズの前に、強弱インジケータでの提示レベル表示および提示音発音にて、押鍵すべき音の強弱を知ることができるので、押鍵すべき音の強弱を意識しながら、押鍵演奏操作を練習することができる。また、各フレーズにおける伴奏の音量は該フレーズにおける目標レベルに調整されるので、演奏者は伴奏演奏の音量を同時に聴くことにより、演奏操作の強弱を意識しながら、練習することができる。また、強弱インジケータには、比較結果が表示されるので、演奏者は自身が行った演奏の結果を知ることができる。
 [変形例]
 尚、本発明は前記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲内での種々の改良、変更が可能であることは言うまでもない。例えば、上記では、楽曲データはイントロ部および練習部を備えると説明したが、イントロ部を備えず、練習部を備える構成としても良い。この場合、電子鍵盤楽器1は、適宜の挿入データ生成部を備える構成とすると良い。例えば、該挿入データ生成部は、前記練習部の演奏進行を開始する前に、所定の複数の段階(強、中、弱)の各々について音の強弱の提示の仕方(提示音の出し方及び提示レベル表示の仕方)を、見本として、演奏者(ユーザ)に順次提示するようにしてよい。その場合、楽曲データの楽曲情報(ヘッダ情報)に、レッスン用トラックで使用しているすべての強弱レベルの見本を示す情報が含まれるように構成とすると良い。例えば、レッスン用トラックに記憶している練習部のデータにおいて、「ベロシティ」の値として、小レベル、中レベルおよび強レベルに対応する3段階のすべての値が使用されている場合には、楽曲情報(ヘッダ情報)に含めるべき強弱レベルの見本情報として、小レベル、中レベルおよび強レベルのすべての見本情報が含まれるようにする。前記挿入データ生成部は、読み出し部41が前記練習部の読み出しを始める前に、楽曲情報(ヘッダ情報)内の強弱レベルの見本情報に基づいて、小レベル、中レベルおよび強レベルの各々の「強弱表示オン」および「強弱表示オフ」の命令を表示データ生成部44へ順に出力し、かつ、各々の「ノートオン」および「ノートオフの命令を音源回路13へ順に出力する。これにより、練習部の再生の前に、見本としての、小レベル、中レベルおよび強レベルの提示レベル表示、提示音の発音がなされる。このような構成にすることにより、楽曲データにイントロ部がない構成であっても、練習部の再生の前に、提示音の発音および提示レベル表示をすることができる。
 また、上記実施例において、楽曲データには、提示レベル表示用の「強弱表示オン」および「強弱表示オフ」イベント、及び/又は提示音用の「ノートオン」および「ノートオフ」イベントが予め含まれている(記憶されている)が、これらの提示レベル表示用及び/又は提示音用のイベントが楽曲データに予め含まれていない(記憶されていない)ように構成しても良い。この場合、読み出し部41は、演奏ガイド用の「鍵盤表示オン」イベントを演奏時間の進行に伴って順次読み出す過程で、次に到来するフレーズの開始タイミングよりも前記所定先行時間(例えば1拍分の時間)だけ先行するタイミングを決定し、該決定したタイミングで、提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eを生成し出力するようにしてよい。その場合、次に到来するフレーズの先頭の「鍵盤表示オン」イベントに付随する「ベロシティ」データを先読みして、該先読みした「ベロシティ」データに基づき、該生成する提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eに付随させる「ベロシティ」データ(強弱情報)を生成するようにすればよい。勿論、少なくとも各フレーズの先頭の「鍵盤表示オン」イベントにおいては、該イベントにしたがって押鍵されるべき鍵の強さ(音の強弱)を示す「ベロシティ」データが付随されているものとする。なお、この場合、該生成出力した「強弱表示オン」の命令Bに対応する「強弱表示オフ」の命令Bおよび「ノートオン」の命令Eに対応する「ノートオフ」の命令Eは、それぞれ所定の時間経過後に、読み出し部41から自動的に生成出力するものとする。
 別の変形例として、楽曲データにおいて、提示レベル表示用の「強弱表示オン」イベント及び/又は提示音用の「ノートオン」イベントを予め含む(記憶する)が、これらの提示レベル表示用及び/又は提示音用のイベントに対応する専用の時間情報は含まず(記憶せず)、これらのイベントをそれに対応する各フレーズの先頭の演奏ガイド用の「鍵盤表示オン」イベントと同じ時間位置に配列(記憶)するようにしてよい。すなわち、提示レベル表示用の「強弱表示オン」イベント及び/又は提示音用の「ノートオン」イベントは、専用の時間情報を持たず、同じ時間位置に配列(記憶)された演奏ガイド用の「鍵盤表示オン」イベントに対応する時間情報を援用する。この場合、読み出し部41は、演奏ガイド用の「鍵盤表示オン」および「鍵盤表示オフ」イベントを演奏時間の進行に伴って順次読み出す過程で、次に到来するフレーズの開始タイミングよりも前記所定先行時間(例えば1拍分の時間)だけ先行するタイミングを決定し、該決定したタイミングで、該フレーズの先頭の「鍵盤表示オン」イベントと同じ時間位置に配列(記憶)された提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eを先読みして、該先読みした提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eを出力する。前述のように、練習部に含まれる(記憶される)提示レベル表示用の「強弱表示オン」イベントおよび提示音の「ノートオン」イベントには、音の強弱を示す強弱情報が含まれているので、先読みされる提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eには、音の強弱を示す強弱情報が含まれている。なお、この場合も、該出力した「強弱表示オン」の命令Bに対応する「強弱表示オフ」の命令Bおよび「ノートオン」の命令Eに対応する「ノートオフ」の命令Eは、それぞれ所定の時間経過後に、読み出し部41から自動的に生成出力するようにすればよい。
 また、楽曲データの伴奏用のトラックの「ベロシティ」の値は、予め、レッスン用トラックの「強弱表示オン」の「ベロシティ」の値に対応するように構成されていると説明したが、これに限定されない。例えば、伴奏用のトラックあるいはレッスン用のトラックに、イベントとして、フレーズの切替えを示すための「フレーズマーク」を挿入しておく構成としても良い。また、「フレーズマーク」に、同じフレーズの「強弱表示オン」と同じ、「ベロシティ」を付随させておく構成とする。読み出し部41が、「フレーズマーク」を読み出した場合には、サウンドシステム15に、「フレーズマーク」に付随する「ベロシティ」に対応する音量での発音をするように命令する構成とする。
 また、上記では、1つのフレームにおいて、提示レベル表示が継続的に表示されると説明したが、これに限定されず、例えば、音高ガイド表示の前などで、断続的に表示される構成としても良い。
 また、提示音の音の種類として、動物の鳴き声を例示したが、これに限定されない。例えば、シンバル、太鼓、笛、ピアノ音などの楽器の音色などとしても良い。この場合、和音でも良い。
 また、上記実施例では、音高ガイド表示を鍵盤図にて音高を明示すると説明したが、これに限定されない。本レッスン機能では、強さをレッスンするものであるため、音高を明示しない図形、例えば鍵盤図を伴わない丸印など、を表示しても良い。また、押鍵ガイド機能(音高ガイド表示)を具備しないものであってもよい。
 また、上記実施例では、目標レベルが変更される際に、提示レベル表示がオフ状態となる期間は、例えば1秒程度であると説明したが、これに限定されない。例えば、楽曲データの再生のテンポに応じて変更する構成としても良い。例えば、テンポが遅い場合には、オフ状態となる期間を例えば4分音符、あるいは2分音符の音価に相当する時間とすると良い。尚、再生のテンポは、楽曲データに含まれる値としても良く、電子鍵盤楽器1のユーザインターフェース12で演奏者により設定されたテンポとしても良い。
 また、上記実施例では、目標レベルが変更される際に、提示レベル表示を一旦オフ状態にする構成について説明したが、これに限定されない。目標レベルが変更されるまで、最新の提示レベル表示のオン状態を維持し、これにより、途切れることなく表示図形を切替える構成としても良い。この場合、表示データ生成部44は入力信号に対し、後着優先で処理するため、楽曲データにおいて「強弱表示オン」イベントの前に位置する「強弱表示オフ」イベントを省略してよい。
 また、上記実施例では、提示音が1回発音されるのに対して、音高ガイド表示が1回される例を説明したが、回数はこれに限定されない。例えば、提示音が1回あるいは複数回、発音された後に、音高ガイド表示が複数回行われる構成としても良いし、提示音が複数回発音された後に、音高ガイド表示が1回、あるいは複数回行われる構成としても良い。
 また、上記実施例では、提示音発音および提示レベル表示のレベルを3段階で提示しているが、これに限らず、強・弱の2段階でも、あるいは、4段階以上のレベルで提示しても良い。また、上記実施例では、3段階で提示する際に、「ベロシティ」の値を1~42、43~84、85~127の範囲で区分しているが、これらの値に限定するものではない。例えば、演奏者が、例えばユーザインターフェース12を操作して自由にレベルの範囲を設定できる構成としても良く、楽曲データにより異なる範囲としても良い。また、楽曲のジャンル毎に異なる範囲で設定される構成としても良い。
 また、上記実施例では、提示レベル表示および/又は提示音を発音タイミング(音高ガイド表示)に先行して提示するための所定先行時間の長さは、1拍に相当する時間に限定されず、を1拍よりも短い時間としても良い。しかし、所定先行時間を1拍に相当する時間とすると、演奏者のテンポカウント感覚に合うので、提示された音の強さで演奏者が押鍵操作するための心的準備ができ易くなり、好ましい。
 また、強弱インジケータの表示は上記実施例に限定されない。上記実施例では、目標レベル(提示レベル表示)、検出レベル、比較結果が切り替わる構成について説明したが、これらのすべて、あるいは何れか2つが同時に表示される構成としても良い。また、表示図形も上記実施例に限定されない。例えば、目標レベルが、強・中・弱などの文字で表示されても良いし、レベルに応じて異なる色で表示されても良い。また、例えば、目標レベル(提示レベル表示)は点滅無しで表示し、検出レベルは点滅有りで表示する、というように、表示の種類に応じて、表示形態を異なる構成としても良い。
 また、上記実施例では、比較結果を表示すると説明したが、これに限定されない。例えば、「良・悪」、点数表示などの評価を表示するようにしても良い。この場合、押鍵操作に係る「ベロシティ」(音の強弱)の評価に加えて、例えば、押鍵操作に係る音高及び/又は操作タイミングなどの項目を評価するようにしても良い。
 尚、上記実施例では、読み出し部41、比較部42、演奏データ生成部43、および表示データ生成部44は、CPU16(汎用のプロセッサ)が所要のプログラム(処理又はタスク)を実行することなどで実現されると説明したが、これに限定されず、専用の電気回路で実現しても良く、CPU16が実行する処理と専用の電気回路とを組み合わせて実現しても良い。
 また、楽曲データはデータ記憶部20に記憶されていると説明したが、これに限定されない。ネットワークインターフェース21を介して、サーバから楽曲データをダウンロードする構成としても良い。また、電子鍵盤楽器1の構成は上記に限定されない。楽曲データが記憶されている、例えばDVD、USBメモリなどの記憶媒体とデータの送受を行うインターフェースを備える構成としても良い。また、ネットワークインターフェース21はLAN通信を行うと説明したが、これに限定されない。他のネットワーク、例えば、MIDI、USB、Bluetooth(登録商標)などの規格に則った通信を行う構成としても良い。この場合、ネットワークに接続されている、他の機器例えばPCなどの通信機器が記憶している楽曲データを使用して、もしくは、遠隔地から送信された楽曲データを使用して、処理を実行するようにしても良い。
 また、楽曲データはMIDI形式のデータであると説明したが、これに限定されず、例えば、オーディオデータでもよい。この場合、オーディオデータをMIDIデータに変換して、処理を実行する構成とすると良い。また、楽曲データは複数のトラックを有すると説明したが、これに限定されず、1つのトラックで構成されても良い。
 また、電子鍵盤楽器1はタイマ31を備えていると説明したが、CPU16がプログラムを実行することで、タイマ機能を実現する構成としても良い。
 また、上記実施例では、鍵盤10を演奏操作子とする電子鍵盤楽器1を例示して説明したが、これに限定されない。例えば、吹いて発音させる形態や、弦や細いスティック状の操作子をはじいて発音させる形態の楽器又は電子楽器にも本発明は適用可能である。例えば、操作子の動く速さを検出するセンサを備え、検出信号に応じて演奏の強弱のレベルを表示する構成とすると良い。また、演奏音の音量を例えばマイクロフォンなどで検出して、音量を強弱のレベルとして表示する構成としても良い。
 上述の実施例において、本発明に係る演奏教習装置及び/又は方法を実現する主要な構成は、CPU16(すなわちプロセッサ)が必要なコンピュータプログラム若しくは処理手順を実行することにより達成されるようになっている。すなわち、上述の実施例における本発明に係る演奏教習装置は、模範演奏の各音について発音タイミングと音を特定する演奏情報を供給し、かつ、前記模範演奏を複数フレーズに分割した各フレーズについての音の強弱を指示する強弱情報を供給する記憶装置(前記データ記憶部20、RAM18)と、出力装置(前記ユーザインターフェース12、前記音源回路13、前記サウンドシステム15)と、プロセッサ(前記CPU16)とを具備し、該プロセッサ(前記CPU16)が、演奏時間を進行させること(前記読み出し部41の機能を実現するプログラム又はタスク)と、前記演奏時間の進行に伴って、前記模範演奏の各フレーズについて、該フレーズの演奏を開始すべきタイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該フレーズにおいて共通の音の強弱を前記出力装置を介して提示すること(前記読み出し部41及び前記表示データ生成部44の機能を実現するプログラム又はタスク)、を実行するように構成されている。

Claims (10)

  1.  模範演奏の各音について発音タイミングと音を特定する演奏情報を供給し、かつ、前記模範演奏を複数フレーズに分割した各フレーズについての音の強弱を指示する強弱情報を供給する供給手段と、
     演奏時間を進行させる手段と、
     前記演奏時間の進行に伴って、前記模範演奏の各フレーズについて、該フレーズの演奏を開始すべきタイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該フレーズにおいて共通の音の強弱を提示する提示手段、
    を備える演奏教習装置。
  2.  前記演奏時間の進行に伴って行われるユーザによる演奏操作に応じて、ユーザにより演奏された音を示すユーザ演奏情報を取得する手段をさらに備え、前記ユーザ演奏情報は音の強弱を示す情報を含み、
     前記提示手段は、さらに、前記ユーザ演奏情報に基づき、前記ユーザにより演奏された音の強弱を提示するように構成されている、請求項1に記載の演奏教習装置。
  3.  前記提示手段は、さらに、各フレーズを演奏すべきタイミングにおいて、該フレーズについての前記強弱情報と前記ユーザ演奏情報に基づく前記ユーザにより演奏された音の強弱との比較に基づき、該フレーズにおける音の強弱と前記ユーザ演奏における音の強弱との相違を示す情報を提示するように構成されている、請求項2に記載の演奏教習装置。
  4.  前記提示手段は、前記音の強弱を、少なくとも可視的又は可聴的な手法で提示するように構成されている、請求項1乃至3のいずれかに記載の演奏教習装置。
  5.  前記提示手段は、前記音の強弱を、可視的な手法で提示する場合、当該フレーズに先行するタイミングのみならず、当該フレーズに対応するタイミングにおいても、前記音の強弱を可視的に提示するように構成されている、請求項4に記載の演奏教習装置。
  6.  前記模範演奏に関係付けられた伴奏演奏を再生する再生手段と、
     各フレーズに対応する伴奏演奏を再生するとき、該フレーズに対応する前記強弱情報に基づき、前記再生手段を介して再生される伴奏演奏音の強弱を調整する手段、
    をさらに備える、請求項1乃至5のいずれかに記載の演奏教習装置。
  7.  前記模範演奏の各音の前記演奏情報に基づき、前記演奏時間の進行に伴って、前記ユーザが演奏すべき音をガイドする演奏ガイド手段をさらに備える、請求項1乃至6のいずれかに記載の演奏教習装置。
  8.  前記供給手段は、教習すべき楽曲に対応する前記模範演奏の各音について前記演奏情報を記憶し、かつ、前記各フレームについて前記強弱情報を記憶したメモリを含む、請求項1乃至7のいずれかに記載の演奏教習装置。
  9.  模範演奏の各音について発音タイミングと音を特定する演奏情報を取得し、かつ、前記模範演奏を複数フレーズに分割した各フレーズについての音の強弱を指示する強弱情報を取得することと、
     演奏時間を進行させることと、
     前記演奏時間の進行に伴って、前記模範演奏の各フレーズについて、該フレーズの演奏を開始すべきタイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該フレーズにおいて共通の音の強弱を提示すること、
    からなる演奏教習方法。
  10.  演奏教習方法を実行するための、1以上のプロセッサによって実行可能な、プログラムを記憶する、コンピュータ読取可能な非一過性記憶媒体であって、前記演奏教習方法は、
     模範演奏の各音について発音タイミングと音を特定する演奏情報を取得し、かつ、前記模範演奏を複数フレーズに分割した各フレーズについての音の強弱を指示する強弱情報を取得することと、
     演奏時間を進行させることと、
     前記演奏時間の進行に伴って、前記模範演奏の各フレーズについて、該フレーズの演奏を開始すべきタイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該フレーズにおいて共通の音の強弱を提示すること、
    からなる非一過性記憶媒体。
PCT/JP2017/033922 2016-09-21 2017-09-20 演奏教習装置及び方法 WO2018056311A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780058042.2A CN109791758B (zh) 2016-09-21 2017-09-20 演奏训练装置及方法
US16/357,897 US11250722B2 (en) 2016-09-21 2019-03-19 Performance training apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-184059 2016-09-21
JP2016184059A JP6720798B2 (ja) 2016-09-21 2016-09-21 演奏教習装置、演奏教習プログラム、および演奏教習方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/357,897 Continuation US11250722B2 (en) 2016-09-21 2019-03-19 Performance training apparatus and method

Publications (1)

Publication Number Publication Date
WO2018056311A1 true WO2018056311A1 (ja) 2018-03-29

Family

ID=61689970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033922 WO2018056311A1 (ja) 2016-09-21 2017-09-20 演奏教習装置及び方法

Country Status (4)

Country Link
US (1) US11250722B2 (ja)
JP (1) JP6720798B2 (ja)
CN (1) CN109791758B (ja)
WO (1) WO2018056311A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6729052B2 (ja) * 2016-06-23 2020-07-22 ヤマハ株式会社 演奏指示装置、演奏指示プログラム、および演奏指示方法
JP6737300B2 (ja) * 2018-03-20 2020-08-05 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
CN110299049B (zh) * 2019-06-17 2021-12-17 韶关市启之信息技术有限公司 一种电子乐谱的智能展现方法
JP7377415B2 (ja) 2021-12-16 2023-11-10 カシオ計算機株式会社 情報処理装置、電子楽器、方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5828794A (ja) * 1981-08-14 1983-02-19 ヤマハ株式会社 電子楽器の音声指示装置
JPS60177396A (ja) * 1984-02-24 1985-09-11 ヤマハ株式会社 楽譜表示装置
JPH06301333A (ja) * 1994-04-11 1994-10-28 Casio Comput Co Ltd 演奏教習装置
JPH10187022A (ja) * 1996-10-18 1998-07-14 Yamaha Corp 音楽教習システム、音楽教習方法、及び同方法を実現するためのプログラムを記録した記録媒体
JP2003330454A (ja) * 2002-03-08 2003-11-19 Yamaha Corp 楽譜表示制御装置および楽譜表示制御プログラム
JP2006276333A (ja) * 2005-03-29 2006-10-12 Yamaha Corp 電子楽器及びベロシティ表示プログラム
WO2013111293A1 (ja) * 2012-01-26 2013-08-01 キャスティングメディア株式会社 音楽支援装置および音楽支援システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2519715Y2 (ja) * 1989-02-07 1996-12-11 ヤマハ株式会社 打鍵強度表示装置
JPH05100678A (ja) * 1991-06-26 1993-04-23 Yamaha Corp 電子楽器
CN1216353C (zh) 1996-10-18 2005-08-24 雅马哈株式会社 音乐教学系统和教学方法
JP2002244652A (ja) * 2001-02-20 2002-08-30 Kawai Musical Instr Mfg Co Ltd 電子楽器
CN1503088A (zh) * 2002-11-26 2004-06-09 科 曾 一种电子节拍校音器的纵向演示的方法
JP5983573B2 (ja) * 2013-09-20 2016-08-31 カシオ計算機株式会社 演奏練習装置、方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5828794A (ja) * 1981-08-14 1983-02-19 ヤマハ株式会社 電子楽器の音声指示装置
JPS60177396A (ja) * 1984-02-24 1985-09-11 ヤマハ株式会社 楽譜表示装置
JPH06301333A (ja) * 1994-04-11 1994-10-28 Casio Comput Co Ltd 演奏教習装置
JPH10187022A (ja) * 1996-10-18 1998-07-14 Yamaha Corp 音楽教習システム、音楽教習方法、及び同方法を実現するためのプログラムを記録した記録媒体
JP2003330454A (ja) * 2002-03-08 2003-11-19 Yamaha Corp 楽譜表示制御装置および楽譜表示制御プログラム
JP2006276333A (ja) * 2005-03-29 2006-10-12 Yamaha Corp 電子楽器及びベロシティ表示プログラム
WO2013111293A1 (ja) * 2012-01-26 2013-08-01 キャスティングメディア株式会社 音楽支援装置および音楽支援システム

Also Published As

Publication number Publication date
JP6720798B2 (ja) 2020-07-08
US11250722B2 (en) 2022-02-15
JP2018049126A (ja) 2018-03-29
CN109791758B (zh) 2023-06-23
US20190213903A1 (en) 2019-07-11
CN109791758A (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
US11250722B2 (en) Performance training apparatus and method
JP6724879B2 (ja) 再生制御方法、再生制御装置およびプログラム
US10726821B2 (en) Performance assistance apparatus and method
US20050257667A1 (en) Apparatus and computer program for practicing musical instrument
JP2008253440A (ja) 音楽再生制御システム、音楽演奏プログラム、および演奏データの同期再生方法
JP3358292B2 (ja) 電子楽器
JP4038836B2 (ja) カラオケ装置
WO2018056310A1 (ja) 演奏教習装置及び方法
JP5109426B2 (ja) 電子楽器及びプログラム
JP6638673B2 (ja) 教習装置、教習プログラムおよび教習方法
JP2004144867A (ja) カラオケ装置における歌唱練習支援システム
JP2007286087A (ja) 練習機能付き電子楽器
JP5338101B2 (ja) 電子音楽装置及び演奏処理プログラム
JP4743615B2 (ja) 練習機能付き電子楽器
JP2017227786A (ja) 演奏指示装置、演奏指示プログラム、および演奏指示方法
JP2004334235A (ja) 歌唱特訓機能付きカラオケ装置
JP2008233614A (ja) 小節番号表示装置、小節番号表示方法及び小節番号表示プログラム
CN113093975A (zh) 显示方法、电子设备、演奏数据显示系统及存储介质
JP2009198657A (ja) 演奏教習装置および演奏教習プログラム
JP2007236824A (ja) ゲーム機
JPH07199972A (ja) カラオケ装置
JP2016180848A (ja) カラオケ装置
JP2006047646A (ja) 自動演奏装置
JP2009204822A (ja) 電子鍵盤楽器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17853081

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17853081

Country of ref document: EP

Kind code of ref document: A1