WO2018056310A1 - 演奏教習装置及び方法 - Google Patents

演奏教習装置及び方法 Download PDF

Info

Publication number
WO2018056310A1
WO2018056310A1 PCT/JP2017/033921 JP2017033921W WO2018056310A1 WO 2018056310 A1 WO2018056310 A1 WO 2018056310A1 JP 2017033921 W JP2017033921 W JP 2017033921W WO 2018056310 A1 WO2018056310 A1 WO 2018056310A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
performance
strength
display
information
Prior art date
Application number
PCT/JP2017/033921
Other languages
English (en)
French (fr)
Inventor
利也 池上
宇新 鄭
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to CN201780057945.9A priority Critical patent/CN109791757B/zh
Publication of WO2018056310A1 publication Critical patent/WO2018056310A1/ja
Priority to US16/357,814 priority patent/US10629090B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • G09B15/02Boards or like means for providing an indication of notes
    • G09B15/023Electrically operated
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • G09B15/001Boards or like means for providing an indication of chords
    • G09B15/002Electrically operated systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/271Velocity sensing for individual keys, e.g. by placing sensors at different points along the kinematic path for individual key velocity estimation by delay measurement between adjacent sensor signals

Definitions

  • the present invention relates to a device and method for learning (or supporting) music performance by a user, and more particularly, to a performance learning device, a performance learning program, and a performance learning method for efficiently learning how to apply strength in music performance.
  • Patent Document 1 a circular figure corresponding to the velocity (sound intensity) of the sound event of the model (exemplary performance) and the velocity of the sound event of the user performance (sound intensity, that is, the strength of the performance operation)
  • a performance display device for displaying circular figures is described.
  • the performance display device disclosed in Patent Literature 1 after performing a user performance, the circular figure based on the user performance is compared and visually recognized with the circular figure of the model (exemplary performance).
  • it is possible to grasp the difference in the strength of the user performance operation with respect to (exemplary performance) it is necessary to appropriately grasp the strength of the performance operation to be performed (the strength of the sound to be performed) before performing the performance operation (or image) You can't).
  • the present invention has been made in view of the above-mentioned points.
  • the performance operation to be performed (strength of sound to be performed) can be appropriately grasped, and the performance operation is performed. It is an object of the present invention to provide a performance learning apparatus that can be practiced while being conscious of the strength of the music.
  • the performance learning apparatus includes a supply means for supplying performance information for specifying sound generation timing and sound and strength information indicating the strength of the sound for each sound of the model performance, and a performance time. As the performance time progresses, the strength information is acquired prior to the pronunciation timing for each sound of the model performance, and the strength of the sound is presented based on the acquired strength information Presenting means.
  • the strength information of the sound is acquired prior to the sound generation timing of each sound of the model performance, and the strength of the sound is presented based on the acquired strength information.
  • the presenting means may be configured to present the intensity of the sound by at least a visible or audible technique. Furthermore, the presentation means is configured so that the presentation time by the visual method is longer than the presentation time by the audible method when the intensity of the sound is presented by a visual and audible method. It's okay. If the presentation time by the audible method is long, there is a possibility that the user's performance may be disturbed. Therefore, the presentation time by the audible method is preferably relatively short. On the other hand, even if the presentation time by the visual method is long, there is little possibility that it will be in the way of the user's performance. Becomes easy to see.
  • the supply means provides a presentation that specifies a timing at which the strength of the sound should be presented so as to precede the sounding timing of the sound, corresponding to the strength information about each sound of the model performance Timing information is further supplied, and the presenting means obtains the strength information prior to the pronunciation timing according to the presentation timing information, and presents the strength of the sound based on the obtained strength information May have been.
  • the presentation means can present the strength of the sound at an appropriate time before the sound generation timing in accordance with the presentation timing information.
  • the presenting means may present the intensity of the sound at any one of a plurality of predetermined stages.
  • the presenting means may be further configured to present a sample of how to present a sound intensity for each of the predetermined plurality of stages to the user. This allows the user to know in advance how to perform the multiple steps of sound intensity by performing a sample before performing the performance, making it easier to confirm the degree of sound intensity presented during the learning performance. You can practice while properly conscious of the sound intensity.
  • the apparatus further comprises means for acquiring user performance information indicating a sound played by the user in response to a performance operation performed by the user as the performance time progresses, wherein the user performance information is a sound intensity.
  • the presenting means may further be configured to present the strength of the sound played by the user based on the user performance information.
  • the presenting means further determines the difference between the strength of the sound in the model performance and the strength of the sound in the user performance based on a comparison between the strength information and information indicating the strength of the sound included in the user performance information. It may be configured to present information to be shown. As a result, it is possible to easily compare the strength of the sound in the model performance with the strength of the sound in the user performance, thereby improving the teaching performance.
  • the present invention can be implemented and configured not only as an apparatus invention but also as a method invention including steps corresponding to each component constituting the apparatus. Furthermore, the present invention can also be implemented as a non-transitory computer readable storage medium storing instructions executable by one or more processors to perform the above method.
  • the electrical configuration of the electronic keyboard instrument 1 will be described with reference to FIG.
  • the electronic keyboard instrument 1 has a lesson function (learning function) in addition to the function of sounding a performance sound when the performer operates the keyboard, and the performance learning apparatus according to the embodiment of the present invention is provided. It is built inside.
  • the electronic keyboard instrument 1 includes a keyboard 10, a detection circuit 11, a user interface 12, a sound source circuit 13, an effect circuit 14, a sound system 15, a CPU 16, a timer 31, a RAM 18, a ROM 19, a data storage unit 20, a network interface 21, and the like.
  • the CPU 16 controls each unit by executing various programs stored in the ROM 19.
  • each unit includes the detection circuit 11, the user interface 12, the sound source circuit 13, and the network interface 21 that are connected to the CPU 16 via the bus 22.
  • the RAM 18 is used as a main storage device for the CPU 16 to execute various processes.
  • the data storage unit 20 stores music data in the MIDI (Musical Instrument Digital Interface) format.
  • the data storage unit 20 is realized by a non-transitory storage medium such as a flash memory.
  • the timer 31 counts the remaining time until the set time according to the instruction of the CPU 16, and outputs a signal to the CPU 16 when the remaining time becomes zero.
  • the keyboard 10 has a plurality of white keys and black keys corresponding to the pitch.
  • the detection circuit 11 transmits a performance detection signal generated by detecting the movement of the keyboard 10 to the CPU 16.
  • the CPU 16 generates MIDI format performance data based on the received performance detection signal.
  • the sound source circuit 13 performs signal processing on MIDI format data and outputs a digital audio signal.
  • the effect circuit 14 outputs a digital audio signal obtained by adding an effect such as reverb to the audio signal output from the sound source circuit 13.
  • the sound system 15 includes a digital-analog converter (not shown), an amplifier, a speaker, and the like.
  • the digital-analog converter converts the digital audio signal output from the effect circuit 14 into an analog audio signal and outputs the analog audio signal to the amplifier.
  • the amplifier amplifies the analog audio signal and outputs it to the speaker.
  • the speaker sounds according to the input analog audio signal.
  • the electronic keyboard instrument 1 generates a performance sound in response to the operation of the keyboard 10.
  • an automatic performance sound is generated based on the music data stored in the data storage unit 20.
  • the sounding of the automatic performance sound may be described as playback.
  • the user interface 12 includes a display (for example, a liquid crystal display) 121 and a plurality of operation buttons (not shown) such as a power button and a “start / stop” button.
  • the user interface 12 displays various setting screens, for example, on the display 121 according to instructions from the CPU 16.
  • the user interface 12 transmits an operation received by the operation button to the CPU 16 as a signal.
  • the network interface 21 performs LAN communication.
  • the CPU 16 is connected to the Internet via the network interface 21 and a router (not shown), and can download music data from a content server that provides music data connected to the Internet.
  • the user interface 12 is arranged on the back side of the keyboard 10 when viewed from the player who operates the keyboard 10. Thereby, the performer can perform while watching the display displayed on the display 121.
  • the electronic keyboard instrument 1 has a plurality of types of lesson functions.
  • the lesson function is mainly used for a lesson of a player's (user) pressing key on the keyboard 10 according to an embodiment of the present invention.
  • the “strength” of pressing the key can also be expressed as “speed” of pressing the key.
  • the detection circuit 11 detects the speed at which the key of the keyboard 10 is pressed, and outputs a signal indicating the detected speed as “velocity” data (data indicating the strength of the sound).
  • “velocity” data data indicating the strength of the sound.
  • the stronger the player presses the key the faster the key is pressed.
  • the stronger the player presses the key on the keyboard 10 the greater the “velocity” value and the greater the volume of the performance sound produced by the sound system 15.
  • a lesson function key press guide function for displaying a key for guiding a key to be pressed is known.
  • a lesson program combining a strength lesson function and a known key pressing guide function according to an embodiment of the present invention is executed.
  • the performer presses a key that is different from the model (exemplary performance) a sound with a different pitch is produced, so it is easy to notice that the performer has pressed the wrong key.
  • the strength of pressing the keyboard 10 performed by the performer is strong, weak, or similar to the model (exemplary performance). It is difficult to determine whether Therefore, specifically, the strength / weakness lesson function of the present embodiment is aimed at enabling the performer to push the keys of the keyboard 10 at three levels of strength. In other words, the sound intensity level is limited to three levels so that the player can easily discriminate the difference in intensity level.
  • the composition of music data for learning a certain piece of music is roughly divided into an intro part and a practice part.
  • the intro part is a preliminary part that is performed before starting the musical progression of the music to be practiced, and consists of presenting the user with a sample of how to present the strength of the sound for the dynamic lesson function.
  • the practice part is the main part performed after the musical progression of the music to be practiced is started, and consists of a combination of a key pressing guide function and a strength lesson function.
  • the intro part consists of pre-presenting to the player all the three levels of visual and audible presentation methods by means of sound and display, so that the three stages are presented visually and audibly.
  • the performer Upon entering the practice section, before the sounding timing of the sound to be sounded (to be performed), the sound intensity to be performed (any one of the three levels) is visible to the user and / or Present audibly. For example, in an audible presentation, a sound with a volume corresponding to the strength of the sound to be played is sounded to audibly instruct the player of the strength to press.
  • a key press guide function that is performed in parallel with the strength lesson function provides a display for guiding a key to be played, and indicates to the player the timing (sounding timing) at which the key should be pressed. Visually notify.
  • the strength of pressing the key (one of three levels) is displayed on the display 121. Is displayed. Next, a comparison result between the strength at which the performer pressed the key and the strength of the model is displayed on the display 121, and the performance of the performer with respect to the model is taught.
  • musical intro performance may be performed in accordance with a known automatic performance technique in the intro section.
  • an electronic keyboard instrument is used to audibly present the sound intensity prior to the sounding timing in order to make the player (user) imagine the sound intensity (size) according to the intensity lesson function.
  • the sound generated by 1 is referred to as a presentation sound
  • the display performed by the electronic keyboard instrument 1 to visually present the strength of the sound prior to the sound generation timing is referred to as a presentation level display.
  • the guide display of the key to be pressed in the vicinity of a predetermined tone generation timing (key operation timing) according to the key pressing guide function is referred to as a pitch guide display.
  • the strength level to be displayed is referred to as a target level
  • the strength level at which the player presses the key is referred to as a detection level.
  • a planar schematic diagram of the keyboard 10 (hereinafter referred to as a keyboard diagram) and a strength indicator are displayed.
  • the pitch guide display is realized by clearly indicating the pitch to be played on the keyboard diagram.
  • the strength indicator is an indicator that displays a strength level or the like.
  • the presentation level display is realized using a strength indicator. Details of the strength indicator will be described later.
  • a state where the pitch guide is displayed is referred to as an on state, and a state where the pitch guide is not displayed is referred to as an off state.
  • a state in which the presentation level is displayed by the strength indicator is referred to as an on state, and a state in which the guide display is not performed is referred to as an off state.
  • the target level (that is, the strength of sound in the model performance) is expressed by the number of “>” marks (hereinafter referred to as angle bracket marks).
  • the electronic keyboard instrument 1 displays a strong level as a display graphic consisting of eight angle bracket marks, a medium level as a display graphic consisting of four angle bracket marks, and a weak level as one peak. Display with a display figure consisting of parentheses.
  • the detection level (ie, played by the user) depends on the number of black marks (hereinafter referred to as black square marks).
  • the electronic keyboard instrument 1 displays a strong level as a display figure consisting of eight black square marks, a medium level as a display figure consisting of four black square marks, and a weak level as one black. Displayed as a display figure consisting of square marks.
  • the comparison result (that is, the comparison result between the strength of the sound in the model performance and the strength of the sound in the user performance, that is, information indicating the difference between them) is displayed as shown in FIG.
  • the electronic keyboard instrument 1 displays a display graphic indicating “strong”, which is a combination of a left angle bracket mark ( ⁇ ) and a black square mark.
  • a display graphic indicating “weak” is displayed, which is a combination of a right angle bracket (>) and a black square mark.
  • the music data used in this embodiment is data optimized for lessons, and is appropriately different from normal music data.
  • the music data of the present embodiment is composed of the intro part and the practice part as described above.
  • an appropriate period is set in order to sequentially guide the keys to be sequentially pressed by the performer (user) for playing the music.
  • the pitch guide display for prompting the key press is performed, after setting a certain period for the performer to press the key, the next pitch guide display is performed.
  • the music data includes music information (header information) and event information groups recorded in a plurality of tracks.
  • the music information (header information) includes information (information other than event information) such as the music name of the music data.
  • a plurality of pairs of data consisting of pairs of time information and events are arranged in accordance with an automatic performance and various display progress sequences related to the music.
  • An event is data for instructing the content of processing.
  • the time information is data indicating the processing time.
  • one or more tracks contain lesson data, and the other tracks contain accompaniment data.
  • Events include MIDI events “Note On” and “Note Off”, and Meta Events “Keyboard Display On”, “Keyboard Display Off”, “Strength Display On”, and “Strength Display Off”. .
  • “Keyboard display on”, “Keyboard display off”, “Strength display on”, and “Strength display off” are recorded in the lesson track.
  • a “note on” event for starting the presentation sound and a “note off” event for muting the presentation sound are also recorded in the lesson track.
  • the “note on” event is an event for instructing the start of sound generation of a certain sound (note)
  • the “note off” event is an event for instructing mute of a sound (note) being sounded.
  • the “note on” and “note off” events are accompanied by “note number”, “velocity”, and the like.
  • the “note number” is data for designating the pitch
  • the “velocity” is data representing the strength of the sound.
  • the presentation sound generated based on the “note on” or “note off” event for starting or muting the presentation sound is not necessarily the sound specified by the “note number”. Note that there is no need to have high.
  • the “note number” data associated with the “note on” or “note off” event used to start or mute the presentation sound is audible to multiple levels (eg, three levels) of sound.
  • Information that designates a specific sound corresponding to each stage of the presentation sound (level of sound intensity) for presentation, and the accompanying “velocity” data is used when Consists of information specifying the volume.
  • the unique sound corresponding to each stage of the presented sound is a unique tone and a unique sound such as “dog call”, “cat call”, and “bird call” as described later. It is a sound with high (time-varying pitch).
  • the value of “velocity” associated with the “note-on” event is not necessarily the present sound. Does not need to correspond to the level of the intensity of the sound to be presented, and may be an arbitrary value.
  • the present invention is not limited to this, and as a modification, a sound having a common tone color and / or a common pitch may be used as a unique sound corresponding to each stage of the presented sound.
  • the “velocity” value associated with the “note-on” event is set to a value corresponding to the level of the intensity of the sound to be presented, and the level of the sound is audible depending on the volume of the presentation sound. You may make it show to.
  • the “keyboard display on” and “keyboard display off” events are data for pitch guide display.
  • the “note number”, time information, and the like are attached to the “keyboard display on” and “keyboard display off” events.
  • the “note number” that accompanies each “keyboard display on” and “keyboard display off” event identifies the pitch of each note in the lesson song, and each “keyboard display on” and “keyboard display”.
  • the time information corresponding to the “off” event specifies the pronunciation timing of each sound in the lesson music. Accordingly, the “keyboard display on” and “keyboard display off” events and the corresponding time information correspond to performance information for specifying the sound generation timing and sound for each sound of the model performance.
  • “Strength display on” and “Strength display off” events are data for the presentation level display, and the “Strength display on” and “Strength display off” events include time information and “velocity” corresponding to the respective events. ”Is accompanied by data.
  • These “level display on” and “level display off” events for presentation level display have a relationship corresponding to the “note on” and “note off” events for the presentation sound, respectively. It is used to visually present the strength of each sound of the model performance, and the latter is used to audibly present the strength of each sound of the model performance.
  • the time information corresponding to the “strong display on” event for the presentation level display related to the same sound during the model performance and the time information corresponding to the “note on” event for generating the presentation sound are: The same timing is shown, and the same sound intensity is visually and audibly presented at the same timing.
  • the “velocity” data associated with the “level display on” event for displaying the presentation level is the level of the sound level expressed by the corresponding “note on” event for the presentation sound (in the plurality of stages). It shows the same strength level as (any).
  • the time information corresponding to the “strength display on” event for the presentation level display and the “note on” event for the presentation sound for visually and audibly presenting the strength of each sound of the model performance
  • the time information corresponding to is preceded by the time information corresponding to the “keyboard display on” event of each sound of the model performance corresponding thereto by a predetermined preceding time (for example, a time corresponding to one beat at the normal performance tempo). It is set to be.
  • the sound intensity information (the “strong display on” event and the presentation) of the sound precedes the sound generation timing of each sound of the model performance (timing specified by the time information corresponding to the “keyboard display on” event).
  • “Note On” for sound) can be acquired, and as will be described later, before the sound generation timing (key pressing timing) of the sound to be pressed, The strength of the key press operation) can be presented.
  • An end code is recorded at the end of the track.
  • typical “velocity” data in the known MIDI standard takes a value of 0 to 127.
  • the lesson function in the present embodiment aims to be able to push the keys of the keyboard 10 with three levels of strength. For this reason, in the music data and the lesson function, it is sufficient that the velocity values are classified in accordance with the three levels of strong, medium and weak. As an example, a range of velocity values 1 to 42 is assigned to a weak level, a range of velocity values 43 to 84 is assigned to a medium level, and a range of velocity values 85 to 127 is assigned to a strong level.
  • the value of “velocity” data included in each event recorded in the lesson track is 3 as a value indicating a weak level, 64 as a value indicating a medium level, and 106 as a value indicating a strong level. Only the step values need be used. In other words, the “velocity” data associated with the “strong display on” event only needs to indicate one of such three values.
  • the electronic keyboard instrument 1 is configured to realize the functions of the reading unit 41, the comparison unit 42, the performance data generation unit 43, and the display data generation unit 44.
  • the reading unit 41, the comparison unit 42, the performance data generation unit 43, and the display data generation unit 44 are, for example, processing programs related to the learning method according to the present invention stored non-temporarily in the data storage unit 20. This is realized by executing a (task) by a processor (that is, the CPU 16 in FIG. 1).
  • the reading unit 41, the comparing unit 42, the performance data generating unit 43, and the display data generating unit 44 are composed of program modules (task modules) that are assembled so as to realize functions corresponding to the respective units.
  • the CPU 16 When a performer who wants to use the lesson function operates the user interface 12 to select desired music data, the CPU 16 reads the designated music data from the data storage unit 20 and stores it in the RAM 18. The performer who wishes to start the lesson function presses the “start / stop” key of the user interface 12.
  • the reading unit 41 determines that the “start / stop” key is pressed based on a signal from the user interface 12, the reading unit 41 sequentially reads time information and events included in each track of the music data stored in the RAM 18 from the top. A command defined by the event is output to the comparison unit 42, the display data generation unit 44, and the sound source circuit 13 at a timing according to the time information using the timer 31. Thus, the performance time is advanced, and the reading unit 41 corresponds to means for advancing the performance time.
  • the reading unit 41 uses the “note-on” or “note-off” command ( Message) E is supplied to the tone generator circuit 13, and “velocity” data d 1 accompanying the “note-on” event is supplied to the comparison unit 42. If the supplied “note-on” or “note-off” instruction E indicates “note-on” (pronunciation start), the tone generator circuit 13 reads the “note number” included in the “note-on” instruction E.
  • a sound signal of a specific sound corresponding to one of the three stages of presentation sounds is generated, and the volume corresponding to the “velocity” data included in the “note-on” instruction E is It is given to the generated sound signal.
  • the sound signal generated by the sound source circuit 13 is supplied to the sound system 15 via the effect circuit 14.
  • the presentation sound corresponding to the “note-on” command E is generated from the sound system 15.
  • the tone generator circuit 13 includes the “note number” included in the “note-off” command E. The generation of the sound signal of the presenting sound during the sound generation indicated by is terminated, and the presenting sound is muted.
  • the readout unit 41 reads “note-on” or “note-off” event for accompaniment sound as the performance time progresses.
  • the tone generator circuit 13 generates or silences an accompaniment sound signal in accordance with the supplied “note-on” or “note-off” command G for the accompaniment sound.
  • the accompaniment sound signal generated by the sound source circuit 13 is supplied to the sound system 15 via the effect circuit 14.
  • the accompaniment sound corresponding to the “note-on” and “note-off” instructions G for the accompaniment sound is generated from the sound system 15.
  • the reading unit 41 selects “strong display on” or “ An instruction B “strong display off” or an instruction A “keyboard display on” or “keyboard display off” is supplied to the display data generation unit 44.
  • the display data generation unit 44 generates display data for turning on the pitch guide display when the instruction A “keyboard display ON” is supplied, and outputs the display data to the user interface 12. Further, when a command A “keyboard display off” is supplied, display data for turning off the pitch guide display is created and output to the user interface 12. Thereby, a pitch guide is displayed on the display 121.
  • the display data generation unit 44 generates display data for turning on the presentation level display and outputs the display data to the user interface 12 when the “B / W Display ON” command B is supplied. Further, when a command B “strong / weak display off” is supplied, display data for turning off the presentation level display is created and output to the user interface 12. Specifically, if the value of “velocity” associated with the command B for “strong / weak display on” is 22, the display data generation unit 44 creates display data including a display graphic for presenting a weak level, and the value is 64. If so, display data including a display graphic for presenting a medium level is generated. If the value is 106, display data including a display graphic for presenting a strong level is generated. As a result, the display level is displayed on the display 121.
  • the performance data generation unit 43 generates performance data based on the performance detection signal (signal indicating the performance operation performed by the user) output from the detection circuit 11 and outputs the performance data to the comparison unit 42, the sound source circuit 13, and the display data generation unit 44.
  • the performance data is data composed of events and the like. As in the case of the music data, there are “Note On”, “Note Off”, etc., and “Note On” and “Note Off” events are accompanied by “Note Number”, “Velocity”, etc. . In this case, “note number” indicates the pitch of the key pressed or released by the user, and “velocity” indicates the strength of the key pressing (sound intensity) by the user.
  • the performance data output from the performance data generation unit 43 is user performance information indicating the sound played by the user, and the user performance information is information indicating the strength of the performance operation by the user (that is, the strength of the sound). (Velocity data). Therefore, the performance data generation unit 43 corresponds to a means for acquiring user performance information indicating a sound played by the user in accordance with a performance operation performed by the user as the performance time progresses.
  • the performance data F output from the performance data generation unit 43 is supplied to the sound source circuit 13, and a sound signal having a pitch corresponding to the performance data F (“note on” or “note off” event) is generated by the sound source circuit 13. Is generated by The sound signal generated by the sound source circuit 13 is supplied to the sound system 15 via the effect circuit 14, whereby the user performance sound is generated from the sound system 15.
  • the display data generation unit 44 receives the “velocity” data C in the performance data output from the performance data generation unit 43, and displays the detection level on the strength indicator based on the “velocity” value. And output to the user interface 12. Specifically, the display data generation unit 44 generates display data for displaying a low-level display graphic if the “velocity” value is in the range of 1 to 42, and is in the middle level if the value is in the range of 43 to 84. Display data for displaying a display graphic is generated. If the value is in the range of 85 to 127, display data for displaying a high-level display graphic is generated. Thereby, the detection level C is displayed on the display 121.
  • the comparison unit 42 compares the “velocity” data C in the performance data output from the performance data generation unit 43 with the “velocity” data d1 of the music data output from the reading unit 41, and the comparison result D Is output to the display data generation unit 44.
  • the display data generation unit 44 generates display data for displaying the comparison result based on the input comparison result D, and outputs the display data to the user interface 12. Specifically, the comparison unit 42 first determines whether the value of the “velocity” data C in the performance data belongs to one of the three levels of weak level, medium level, and strong level.
  • the value is in the range of 1 to 42, it is judged as a weak level, if the value is in the range of 43 to 84, it is judged as a medium level, and if the value is in the range of 85 to 127, it is judged as a strong level.
  • the determined performance data level is the same as the level indicated by the “velocity” data d1 of the music data. As described above, if the value of the “velocity” data d1 of the music data is 22, it is a weak level, if the value is 64, it is a medium level, and if the value is 106, it is a strong level.
  • a comparison result D of “correct” is output to the display data generation unit 44.
  • the comparison result D “weak” is output to the display data generation unit 44.
  • the display data generation unit 44 generates a display graphic corresponding to the comparison result D and outputs it to the user interface 12.
  • the comparison result D is displayed on the display 121. Note that the display of the comparison result D is turned off, for example, in response to the command B for “strong / weak display off”.
  • FIG. 6 in the row of “pitch guide display”, an example of the pitch guide display is shown along the time axis, and the period during which the pitch guide display is on is indicated by a rectangular figure.
  • the “presentation level display” line of FIG. 6 an example of the presentation level display is shown along the time axis, the period in which the presentation level display is on is indicated by a rectangular figure, and the target in the presentation level display Differences in levels (strong, medium, and weak) are distinguished by attaching different hatchings to the rectangular figure.
  • the period during which the detection level corresponding to the key depression is displayed is also indicated by a specific rectangular figure (C), and the comparison result is displayed.
  • the period of time is also indicated by a specific rectangular figure (D).
  • the row of “presentation sound pronunciation” in FIG. 6 an example of pronunciation of the presentation sound is shown along the time axis, the period during which the presentation sound is pronounced is shown by a rectangular figure, and the presentation that is pronounced Differences in sound volume levels (strong, medium, and weak) are distinguished by attaching different hatchings to the rectangular figure.
  • the horizontal axis in FIG. 6 is a time axis, and starts from the timing when the performer presses the “start / stop” key.
  • FIG. 6 is a diagram for explaining the display and sound generation procedures of the electronic keyboard instrument 1 for the sake of convenience, and does not limit the relative length of the periods such as the on-state periods of the respective displays. . That is, the time axis on the horizontal axis in FIG. 6 does not indicate a uniform time scale.
  • the electronic keyboard instrument 1 When the “Start / Stop” key is pressed, the electronic keyboard instrument 1 starts playing the accompaniment. In the intro part, the electronic keyboard instrument 1 sequentially produces each presentation sound as a sample for all the strengths of the strong level, medium level, and weak level, and sequentially displays each presentation level.
  • the type of sound differs depending on the level of sound intensity.
  • the strong level is a dog call (eg, one)
  • the middle level is a cat call (eg, meow)
  • the weak level is a bird call (eg, Piyo).
  • the electronic keyboard instrument 1 displays a strong-level display graphic with a strength indicator on the display 121 as a sample based on the reading by the reading unit 41 during the sound generation period TD from time t1 to time t2, and the sound system 15 Sounds a strong level presentation sound through.
  • a medium level display graphic is displayed with the strength indicator at time t3, and the sound generation and start of the medium level presentation sound via the sound system 15 is started.
  • the display and sound generation are ended.
  • a weak level display graphic is displayed with the strength indicator at time t4 as a sample, and the sound of the weak level presentation sound is started via the sound system 15.
  • the sound generation of the presentation sound and the display of the strength indicator are terminated.
  • the performer shows the difference in the strength level of the presented sound as a sample according to the level of strong, medium, weak, for example, “One”, “Meow”, The presentation sound of “Piyo” can be heard, and the intensity of the sound can be imagined by looking at each display graphic.
  • the music is controlled to move from the intro unit to the first measure of the practice unit at time t5.
  • time t5 based on the reading by the reading unit 41, the following control is performed as the performance time progresses.
  • a performance (lesson music) sequentially instructed according to the key depression guide function (pitch guide display) is referred to as a model performance.
  • the electronic keyboard instrument 1 is based on the “note-on” instruction E for the presentation sound and the “strength display on” instruction B for the presentation level display read via the reading unit 41. Then, a visual and audible presentation of the strength of the first note N1 of the model performance is started.
  • the strength of the first sound N1 of the model performance is a strong level. That is, at time t6, the display of the high level display graphic and the sound generation of the strong level presentation sound are started with the strength indicator, and the sound generation of the presentation sound is stopped after a predetermined sound generation period TD from time t6. Since the length of the period for generating the presentation sound is a common predetermined sound generation period TD, the description regarding the end of the presentation sound is omitted hereinafter.
  • the time t7 comes after the time corresponding to the predetermined preceding time (for example, one beat time in the normal performance tempo) from the time t6, the data is read via the reading unit 41 during the period TD from the time t7.
  • a pitch guide display for instructing the pitch of the first note N1 of the model performance is performed.
  • the display of the high-level display graphic on the strength indicator ends.
  • the performer hears the presentation sound (for example, “One”) between the times t6 and t7, the performer can know that the sounding timing to press the key is approaching, and the time t6 to t7.
  • the user can know the pitch (key) to be pressed as the first sound N1 by viewing the pitch guide display (keyboard diagram) while viewing the strong level display graphic displayed during t8.
  • the performer fails to press the first sound N1.
  • the electronic keyboard instrument 1 After time t8, at time t9, the electronic keyboard instrument 1 reads the “note-on” instruction E for the presentation sound and the “strong display on” instruction for the presentation level display read via the reading unit 41. Based on B, it starts visual and audible presentation of the strength of the second note N2 of the model performance.
  • the strength of the second sound N2 of the model performance is a medium level.
  • the time from time t8 to time t9 is set to a length of about 1 second, for example, as a breathing time. . This makes it easier for the performer to visually recognize that the target level is switched.
  • this lesson song is intended to be a lesson for the beginner to be able to perform key pressing operations with a strength corresponding to the strength of the sound presented as an exemplary performance. It does not proceed at an accurate time rate according to the performance tempo.
  • the time range described as “1 bar” in FIG. 6 indicates one bar in the lesson music, but this one bar time range is not necessarily a musically accurate time length of one bar (for example, 4 bars). It does not correspond to the beat length).
  • the predetermined preceding time is illustrated in parentheses as “for example, the time for one beat at a normal performance tempo”, the time for one beat at the normal performance tempo may be kept in this portion. .
  • the total length of the time range corresponding to “1 bar” in FIG. 6 is not necessarily musically accurate. It will be appreciated that it does not correspond to the length of the bar (eg, the time length of 4 beats).
  • the electronic keyboard instrument 1 starts displaying a medium-level display graphic with a strength indicator and generating a medium-level presentation sound, and during a period TD from time t10 after a time corresponding to one beat from time t9.
  • a pitch guide display for instructing the pitch of the second tone N2 of the model performance is performed, and the display of the middle-level display graphic of the strength indicator is terminated at time t11.
  • the time from time t11 to time t12 is set as the breathing time.
  • the electronic keyboard instrument 1 is based on the “note-on” instruction E for the presentation sound and the instruction B for “strong / weak display on” for displaying the presentation level, which are read via the reading unit 41.
  • the visual and audible presentation of the strength of the third sound N3 of the model performance is started.
  • the strength of the third sound N3 of the model performance is a weak level.
  • the display of the weak level display graphic by the strength indicator and the pronunciation of the weak level presentation sound are started.
  • the time t13 arrives after the time corresponding to the predetermined preceding time (for example, the time for one beat in the normal performance tempo) from the time t12, the time passes from the time t13 to the period TD through the reading unit 41.
  • a pitch guide display for instructing the pitch of the third tone N3 of the model performance is performed. Thereafter, at time t14, the display of the display graphic at the weak level of the strength indicator is terminated. In the illustrated example, the performer fails to press the second and third sounds N2 and N3.
  • the time from time t14 to time t15 is set as the breathing time.
  • the electronic keyboard instrument 1 is based on the “note-on” instruction E for the presentation sound and the “strength display on” instruction B for the presentation level display read out via the readout unit 41.
  • the visual and audible presentation of the strength of the fourth note N4 of the model performance is started.
  • the strength of the fourth sound N4 of the model performance is at a weak level.
  • the display of the weak level display graphic by the strength indicator and the sound generation of the weak presentation sound are started.
  • the reading unit 41 is used.
  • a pitch guide display for instructing the pitch of the fourth note N4 of the model performance is performed.
  • the performer performs a key depression operation at a medium level from time t17 to time t18.
  • the performance data generating unit 43 in response to the detection circuit 11 detecting the key pressing operation, the performance data generating unit 43 generates a detection level C indicating the strength (medium level) of the key pressing operation, and the display 121.
  • a medium level display graphic is displayed on the strength indicator in accordance with the generated detection level C.
  • the display data generation unit 44 gives priority to late arrival when a “strong / weak display on” command, “strong / weak display off” command, performance data, and comparison results, which are commands related to the display of the strength indicator, are input.
  • a “strong / weak display on” command “strong / weak display off” command
  • performance data For example, when performance data is input at time t17, the display is switched from the target level display (presentation level display B) to the detection level C display.
  • the comparison result is input at time t18, the display is switched to the display of comparison result D.
  • the display data generating unit 44 determines whether the display content in the strength indicator is the detection level C, the comparison result D, the target Regardless of the level (presentation level display B), the display of the strength indicator is turned off.
  • the “keyboard display on” and “keyboard display off” events (command A) and time information corresponding thereto correspond to performance information for specifying sound generation timing and sound for each sound of the model performance.
  • (Command E) corresponds to strength information indicating the strength of sound for each sound of the model performance. Therefore, the data storage unit 20 (RAM 18) is an example of a supply unit that supplies performance information for specifying sound generation timing and sound and strength information indicating the strength of the sound for each sound of the model performance.
  • the configuration in which the reading unit 41 functions to sequentially read commands defined by each event from the data storage unit 20 (RAM 18) at a timing according to the time information is an example of a means for advancing performance time. is there.
  • the time information corresponding to the “strong display on” event for the presentation level display and the time information corresponding to the “note on” event for the presentation sound include the “sound” of each sound of the model performance corresponding thereto.
  • the time information corresponding to the “keyboard display on” event is set to precede the predetermined preceding time (for example, the time for one beat in the normal performance tempo), and therefore, the reading output by the reading unit 41 is set.
  • the start timing is the start timing (sounding timing) of the corresponding “keyboard display on”. Also, it will be controlled to the preceding by the predetermined preceding time. Therefore, in cooperation with the reading unit 41, the display data generation unit 44, the user interface 12, the tone generator circuit 13, and the sound system 15, the start timing (sounding timing) of the “keyboard display on” is preceded.
  • the strength information is acquired prior to the sound generation timing for each sound of the model performance as the performance time progresses.
  • the presentation means which presents the strength of the sound based on the acquired strength information.
  • performance guide means for guiding the sound to be played by the user as the performance time progresses based on the performance information of each sound of the model performance.
  • the performer should press the key by the presentation level display and the sound generation of the sound to be presented before the sounding timing of the sound to be depressed, which can be known by the key depression guide function (display on the keyboard diagram). Since it is possible to know the strength of the sound, it is possible to practice the key pressing performance operation while being aware of the strength of the key to be pressed.
  • “strong display on” for displaying the presentation level and “note on” for generating the presentation sound are in front of the corresponding “keyboard display on”.
  • the electronic keyboard instrument 1 can display the presentation level and sound the presentation sound before the sounding timing.
  • the performer can know in advance the three levels of strength and weakness in the intro part in front of the practice part by the presentation sound and the presentation level display, so that the player can practice while having an image of the performance. Moreover, since the comparison result is displayed on the strength indicator, the performer can know the result of the performance performed by himself.
  • the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the spirit of the present invention.
  • the music data may not include the intro part but may include the practice part.
  • the electronic keyboard instrument 1 presents the player (user) with a sample of how to present the sound intensity for each of a plurality of predetermined stages in order to realize the same function as the intro part. In order to do this, it is preferable to have a configuration including an insertion data generation unit.
  • the insertion data generation unit does not use the intro unit, but before starting the performance of the practice unit, the method of presenting the strength of the sound for each of a plurality of predetermined stages (how to present the presentation sound) And a method of displaying the presentation level) are presented to the performer (user) as a sample.
  • the music information (header information) of the music data is configured to include information indicating samples of all strength levels used in the lesson track.
  • the sample information on the strength level to be included in the information includes all sample information on the small level, the medium level, and the strong level.
  • the insertion data generation unit is configured to display each of the small level, medium level, and strong level based on the sample information of the strength level in the music information (header information).
  • the commands “strong display on” and “strong display off” are sequentially output to the display data generation unit 44, and the respective “note on” and “note off” commands are sequentially output to the sound source circuit 13.
  • the presentation level display of the low level, the medium level and the strong level as a sample and the pronunciation of the presentation sound are made.
  • the sample information does not need to be contained in the said music information (header information).
  • head information For example, when only the medium level and the strong level are used in the practice section, only the medium level and strong level presentation sounds and the presentation level display may be presented as samples. The same applies to the case where sample information (event) is included in the intro part.
  • the music data practice section includes a “strong display on” and “strong display off” event for presentation level display, and / or a “note on” and “note off” event for presentation sound. Is included (stored) in advance, but these presentation level display and / or presentation sound events are not included in the practice section track (not stored) in advance. Also good.
  • the reading unit 41 corresponds to the next “keyboard display on” event in the process of sequentially reading the “keyboard display on” and “keyboard display off” events for the performance guide as the performance time progresses.
  • a timing preceding the sound generation timing indicated by the time information by the predetermined preceding time is determined, and at the determined timing, “strong / weak display on” for display level display is determined.
  • the command B and the “note-on” command E of the presentation sound may be generated and output.
  • the “velocity” data accompanying the “keyboard display on” event is prefetched, and based on the prefetched “velocity” data, the generated “strength display on” command B for presentation level display and presentation It is only necessary to generate “velocity” data (strength information) associated with the “note-on” instruction E of the sound.
  • each “keyboard display ON” event is accompanied by “velocity” data indicating the strength of the key to be pressed (sound strength) according to the event.
  • a “strong display off” command B corresponding to the generated “strong / weak display on” command B and a “note off” command E corresponding to the “note on” command E are respectively predetermined.
  • the reading unit 41 automatically generates and outputs.
  • the music data practice section includes (stores) a “strong / weak display on” event for presentation level display and / or a “note on” event for presentation sound in advance.
  • the dedicated time information corresponding to the events for the performance and / or presentation sound is not included (not stored), and these events are arranged (stored) at the same time positions as the corresponding “keyboard display on” events for the performance guide. ) That is, the “strong display ON” event for the presentation level display and / or the “note on” event for the presentation sound does not have dedicated time information and is arranged (stored) at the same time position. Time information corresponding to the “keyboard display on” event is used.
  • the reading unit 41 corresponds to the next “keyboard display on” event in the process of sequentially reading the “keyboard display on” and “keyboard display off” events for the performance guide as the performance time progresses.
  • a timing that precedes the sound generation timing indicated by the time information by the predetermined preceding time (for example, a time corresponding to one beat in a normal performance tempo) is determined, and at the determined timing, the same time position as the “keyboard display on” event
  • the pre-reading command “B” for displaying the presentation level and the “note-on” command E for the presentation sound which are arranged (stored) in FIG.
  • the command B and the command E of “note on” of the presentation sound are output.
  • the “strong display ON” event for presentation level display and the “note on” event for presentation sound included (stored) in the practice section include strength information indicating the strength of the sound. Therefore, the pre-read instruction level “B” for displaying the presentation level and the “note on” instruction E for the presentation sound include strength information indicating the strength of the sound. In this case as well, the “strong display OFF” instruction B corresponding to the output “strong display ON” instruction B and the “note OFF” instruction E corresponding to the “note ON” instruction E are respectively predetermined. After the time elapses, the reading unit 41 may automatically generate and output.
  • cry of animals is exemplified as the type of sound of the presentation sound, it is not limited to this.
  • the sound of a musical instrument such as a cymbal, a drum, a flute, or a piano sound may be used. In this case, a chord may be used.
  • the pitch guide display is described as clearly indicating the pitch with a keyboard diagram.
  • this lesson function is a lesson of strength, a figure that does not clearly indicate the pitch, such as a circle without a keyboard diagram, may be displayed. Further, the key pressing guide function (pitch guide display) may not be provided.
  • the period during which the presentation level display is turned off when the target level is changed is described as being about 1 second, for example.
  • the present invention is not limited to this.
  • the off period may be set to a time corresponding to a note value of, for example, a quarter note or a half note.
  • the playback tempo may be a value included in the music data, or may be a tempo set by the performer on the user interface 12 of the electronic keyboard instrument 1.
  • the present invention is not limited to this. Until the target level is changed, the on-state of the latest presentation level display may be maintained, and thereby the display figure may be switched without interruption. In this case, since the display data generation unit 44 processes the input signal with priority on arrival, the “strong display off” event located before the “strong display on” event in the music data may be omitted.
  • the pitch guide display is performed once, but the number of times is not limited to this.
  • the pitch guide display may be performed a plurality of times after the presentation sound is pronounced once or a plurality of times, or the pitch guide display may be performed once after the presentation sound is pronounced a plurality of times, or It is good also as a structure performed several times.
  • the intensity of sound may be presented for one or more sounds (presentation sound and / or presentation level display). That is, the exemplary performance in the present invention refers to exemplary performance related to the strength of sound.
  • the presentation sound pronunciation and the presentation level display level are presented in three stages.
  • the present invention is not limited to this, and the presentation is performed in two levels of strong and weak, or in four or more levels. Also good.
  • the “velocity” value is divided into the range of 1 to 42, 43 to 84, and 85 to 127 when presented in three stages.
  • the present invention is not limited to these values. .
  • a configuration in which the performer can freely set the level range by operating the user interface 12, for example, or a different range depending on the music data may be used.
  • it is good also as a structure set in the different range for every genre of music.
  • prescribed preceding time for showing a presentation level display and / or a presentation sound ahead of sound generation timing is not limited to the time equivalent to 1 beat. , May be shorter than one beat.
  • the predetermined lead time is a time corresponding to one beat, it matches the tempo count feeling of the performer, so that it becomes easy for the performer to perform a key press operation with the strength of the presented sound, preferable.
  • the display of the strength indicator is not limited to the above embodiment.
  • the configuration in which the target level (presentation level display), the detection level, and the comparison result are switched has been described. However, all or any two of them may be displayed at the same time.
  • the display graphic is not limited to the above embodiment.
  • the target level may be displayed in characters such as strong, medium, and weak, or may be displayed in a different color depending on the level.
  • the target level (presentation level display) may be displayed without blinking, and the detection level may be displayed with blinking, and the display form may be different depending on the type of display.
  • the comparison result is displayed.
  • evaluations such as “good / bad” and score display may be displayed.
  • items such as pitch and / or operation timing related to the key pressing operation may be evaluated.
  • the reading unit 41, the comparing unit 42, the performance data generating unit 43, and the display data generating unit 44 are executed by the CPU 16 (general-purpose processor) executing a required program (processing or task).
  • the CPU 16 general-purpose processor
  • the present invention is not limited to this, and may be realized by a dedicated electric circuit, or may be realized by combining a process executed by the CPU 16 and a dedicated electric circuit.
  • the music data is stored in the data storage unit 20, it is not limited to this.
  • the music data may be downloaded from the server via the network interface 21.
  • the configuration of the electronic keyboard instrument 1 is not limited to the above.
  • a configuration may be adopted in which music data is stored, for example, a storage medium such as a DVD or a USB memory and an interface for transmitting and receiving data.
  • the network interface 21 has been described as performing LAN communication, the present invention is not limited to this.
  • a configuration may be adopted in which communication conforms to standards of other networks such as MIDI, USB, Bluetooth (registered trademark), and the like.
  • the processing is executed using music data stored in a communication device such as a PC connected to the network or using music data transmitted from a remote place. You may do it.
  • the music data is data in the MIDI format, it is not limited thereto, and may be audio data, for example.
  • the audio data may be converted to MIDI data and the process may be executed.
  • the music data has been described as having a plurality of tracks, the present invention is not limited to this, and may be configured by one track.
  • the electronic keyboard instrument 1 includes the timer 31, the timer function may be realized by the CPU 16 executing a program.
  • the electronic keyboard instrument 1 using the keyboard 10 as a performance operator is described as an example.
  • the present invention is not limited to this.
  • the present invention can be applied to a musical instrument or an electronic musical instrument in which a sound is generated by blowing, or a sound is generated by repelling a string or a thin stick-shaped operation element.
  • it may be configured to include a sensor for detecting the moving speed of the operation element and to display the level of the performance level according to the detection signal.
  • the volume of the performance sound may be detected by, for example, a microphone and the volume may be displayed as a strong or weak level.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

模範演奏の各音について、発音タイミングと音を特定する演奏情報及び音の強弱を示す強弱情報を供給する。演奏時間の進行に伴って、模範演奏の各音について、該発音タイミングに先行して該強弱情報を取得し、取得した強弱情報に基づき当該音の強弱を提示する。この音の強弱は、可視的又は可聴的な手法で提示される。例えば時刻t7の発音タイミングの1拍前の、時刻t6にて、押鍵すべき強さを強弱インジケータで表示し、押鍵すべき強さに応じた音を発音する。これにより、音の強弱に係る演奏操作の教習を受ける演奏者は、模範演奏の各音の発音タイミングの前に、表示および/又は音にて、該音の強弱を知ることができるので、該模範演奏の音の強弱を意識しながら、演奏練習することができる。

Description

演奏教習装置及び方法
 本発明は、ユーザによる音楽演奏を教習(若しくは支援)する装置及び方法に関し、特に、音楽演奏における強弱の付け方を効率的に教習するための演奏教習装置、演奏教習プログラム、および演奏教習方法に関する。
 特許文献1には、手本(模範演奏)の発音イベントのベロシティ(音の強弱)に応じた円形図形と、ユーザ演奏の発音イベントのベロシティ(音の強弱、つまり演奏操作の強弱)に応じた円形図形とを表示する演奏表示装置が記載されている。特許文献1に開示された演奏表示装置によれば、ユーザ演奏を行った後に該ユーザ演奏に基づく前記円形図形を手本(模範演奏)の前記円形図形とを対比・視認することにより、手本(模範演奏)に対するユーザ演奏の操作の強弱の違いを把握することはできるが、演奏操作を行う前に、行うべき演奏操作の強弱(演奏すべき音の強弱)を適切に把握する(若しくはイメージする)ことはできない。
特開2002-091290号公報
 本発明は上述の点に鑑みてなされたもので、演奏操作を行う前に、行うべき演奏操作の強弱(演奏すべき音の強弱)を適切に把握することができるようにし、もって、演奏操作の強弱を意識しながら、練習することができる演奏教習装置を提供することを目的とする。
 上記目的を達成するために、本発明に係る演奏教習装置は、模範演奏の各音について、発音タイミングと音を特定する演奏情報及び音の強弱を示す強弱情報を供給する供給手段と、演奏時間を進行させる手段と、前記演奏時間の進行に伴って、前記模範演奏の各音について、前記発音タイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該音の強弱を提示する提示手段、を備える。
 本発明によれば、模範演奏の各音の発音タイミングに先行して当該音の強弱情報を取得し、取得した強弱情報に基づき当該音の強弱を提示するので、演奏者(教習を受けるユーザ)は演奏操作すべき音の発音タイミングの前に、該演奏操作すべき音の強弱を知ることができる。これにより、模範演奏における音の強弱を意識しながら、自らの演奏操作を行うことができる。したがって、音の強弱を意識した演奏練習を適切に行うことができる。
 一実施例において、前記提示手段は、前記音の強弱を、少なくとも可視的又は可聴的な手法で提示するように構成されていてよい。さらに、前記提示手段は、前記音の強弱を、可視的及び可聴的な手法で提示する場合、可視的手法による提示時間の方が可聴的な手法による提示時間よりも長くなるように構成されていてよい。可聴的な手法による提示時間が長いとユーザの演奏に邪魔になるおそれがあるので、可聴的な手法による提示時間は相対的に短い方が好ましい。これに対して、可視的手法による提示時間が長くてもユーザの演奏に邪魔になるおそれは少なく、かえって、可視的手法による提示時間が相対的に長い方が音の強弱を示す提示物をユーザが視認しやすいものとなる。
 一実施例において、前記供給手段は、前記模範演奏の各音についての前記強弱情報に対応して、当該音の前記発音タイミングに先行するように当該音の強弱を提示すべきタイミングを規定する提示タイミング情報をさらに供給するものであり、前記提示手段は、前記提示タイミング情報に従って前記発音タイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該音の強弱を提示するように構成されていてよい。これにより、提示手段は、前記提示タイミング情報に従って、発音タイミングの前の適切な時点で、音の強弱を提示することができる。
 一実施例において、前記提示手段は、前記音の強弱を、所定の複数の段階の何れかで提示するようにしてよい。前記提示手段は、さらに、前記所定の複数の段階の各々について音の強弱の提示の仕方の見本を、ユーザに提示するように構成されていてよい。これにより、ユーザは、音の強弱の複数の段階の仕方を、見本によって、演奏の前に予め知ることができるので、教習演奏中に提示される音の強弱の程度を確認し易くなり、模範の音の強弱を適切に意識しつつ演奏練習を行うことができる。
 一実施例において、前記演奏時間の進行に伴って行われるユーザによる演奏操作に応じて、ユーザにより演奏された音を示すユーザ演奏情報を取得する手段をさらに備え、前記ユーザ演奏情報は音の強弱を示す情報を含み、前記提示手段は、さらに、前記ユーザ演奏情報に基づき、前記ユーザにより演奏された音の強弱を提示するように構成されていてよい。前記提示手段は、さらに、前記強弱情報と前記ユーザ演奏情報に含まれる前記音の強弱を示す情報との比較に基づき、前記模範演奏における音の強弱と前記ユーザ演奏における音の強弱との相違を示す情報を提示するように構成されていてよい。これにより、模範演奏における音の強弱とユーザ演奏における音の強弱との対比が容易に行えることになり、教習性能が向上する。
 本発明は、装置の発明として構成及び実施し得るのみならず、前記装置を構成する各構成要素に対応するステップを備える方法の発明として実施及び構成されてよい。さらに、本発明は、上記方法を実行するために、1以上のプロセッサにより実行可能な命令群を記憶した、非一過性のコンピュータ読み取り可能な記憶媒体として実装することもできる。
本発明の一実施形態に係る電子鍵盤楽器の電気的構成を示すブロック図である。
目標レベルと表示を説明する図である。
検出レベルと表示を説明する図である。
比較結果と表示を説明する図である。
本発明の一実施形態に係る電子鍵盤楽器の機能ブロック図である。
レッスン機能を説明するタイミングチャート図である。
 <電子鍵盤楽器の構成>
 電子鍵盤楽器1の電気的構成について図1を用いて説明する。電子鍵盤楽器1は、演奏者が鍵盤を操作するのに応じて演奏音を発音する機能の他に、レッスン機能(教習機能)などを備えており、本発明の実施例に係る演奏教習装置をその内部に組み込んでなるものである。
 電子鍵盤楽器1は、鍵盤10、検出回路11、ユーザインターフェース12、音源回路13、効果回路14、サウンドシステム15、CPU16、タイマ31、RAM18、ROM19、データ記憶部20、ネットワークインターフェース21などを備えている。CPU16はROM19に記憶されている各種のプログラムを実行することによって、各部を制御する。ここで、各部とは、バス22を介してCPU16と接続される検出回路11、ユーザインターフェース12、音源回路13、およびネットワークインターフェース21などである。RAM18は、CPU16が各種の処理を実行するための主記憶装置として用いられる。データ記憶部20は、MIDI(Musical Instrument Digital Interface;登録商標)形式の楽曲データなどを記憶する。データ記憶部20は、例えばフラッシュメモリなどのような非一過性記憶媒体で実現される。タイマ31はCPU16の命令に従って、設定時間までの残り時間をカウントし、残り時間が0となると、CPU16に信号を出力する。
 鍵盤10は音高に対応した白鍵および黒鍵を複数備えている。検出回路11は鍵盤10の動きを検出して生成する演奏検出信号をCPU16へ送信する。CPU16は受信した演奏検出信号に基づいてMIDI形式の演奏データを生成する。
 音源回路13は、MIDI形式のデータに信号処理を行い、デジタルオーディオ信号を出力する。効果回路14は、音源回路13から出力されるオーディオ信号に例えばリバーブなどの効果を付加したデジタルオーディオ信号を出力する。サウンドシステム15は、不図示のデジタルアナログ変換器、アンプ、およびスピーカなどを有する。デジタルアナログ変換器は、効果回路14から出力されるデジタルオーディオ信号をアナログオーディオ信号に変換し、アンプへ出力する。アンプは、アナログオーディオ信号を増幅し、スピーカへ出力する。スピーカは入力されるアナログオーディオ信号に応じて発音する。このように、電子鍵盤楽器1は鍵盤10の操作に応じて、演奏音を発音する。また、データ記憶部20に記憶されている楽曲データに基づいて、自動演奏音を発音する。以下、自動演奏音を発音することを、再生すると記載する場合がある。
 ユーザインターフェース12は、ディスプレイ(例えば液晶ディスプレイ)121および不図示の、電源ボタン、「スタート/ストップ」ボタンなどの複数の操作ボタンを有する。ユーザインターフェース12は、CPU16の命令に従って、例えば各種の設定画面などをディスプレイ121に表示する。また、ユーザインターフェース12は操作ボタンで受け付けた操作を信号としてCPU16へ送信する。ネットワークインターフェース21は、LAN通信を行う。CPU16は、ネットワークインターフェース21および不図示のルータを介してインターネットと接続し、インターネットに接続されている楽曲データを提供するコンテンツサーバから楽曲データをダウンロードすることができる。
 尚、ユーザインターフェース12は、鍵盤10を操作する演奏者から見て、鍵盤10の奥側に配置されている。これにより、演奏者は、ディスプレイ121に表示される表示を見ながら演奏することができる。
 <レッスン機能の概要>
 次に、電子鍵盤楽器1のレッスン機能(演奏教習装置としての機能)の概要について説明する。電子鍵盤楽器1は複数の種類のレッスン機能を有するが、ここでは、主に、本発明の一実施例に係る演奏者(ユーザ)が鍵盤10の鍵を押す強さをレッスンするためのレッスン機能(強弱レッスン機能)について説明する。尚、鍵を押す「強さ」は、鍵を押す「速さ」とも表現できる。演奏者は、大きな音を出したい時には、鍵盤10の鍵を強く押す。検出回路11は、鍵盤10の鍵が押される速さを検出し、検出した速さを示す信号を「ベロシティ」データ(音の強弱を表すデータ)として出力する。演奏者が鍵を強く押すほど、鍵が押される速さは速くなるとされている。演奏者が鍵盤10の鍵を強く押すほど、「ベロシティ」の値は大きく、サウンドシステム15が発音する演奏音の音量は大きくなる。なお、押鍵すべき鍵をガイドするための表示を行うレッスン機能(押鍵ガイド機能)が公知である。以下では、本発明の一実施例に係る強弱レッスン機能と公知の押鍵ガイド機能とを組み合わせた教習プログラムを遂行する例について説明する。
 さて、演奏者が手本(模範演奏)とは異なる鍵を押してしまった場合には、異なる音高の音が発音されるので、演奏者自身が間違った鍵を押してしまったことに気づき易い。これに対し、特に、演奏者が初心者である場合、演奏者自身が行っている鍵盤10を押す強さが、手本(模範演奏)に対して、強いのか、弱いのか、あるいは、同程度なのかを判別することは難しい。そこで、本実施形態の強弱レッスン機能は、具体的には、演奏者が鍵盤10の鍵を3つのレベルの強さで押し分けられるようになる事を目標としている。つまり、演奏者が容易に強さのレベルの違いを判別できるように、音の強弱のレベルを3段階に限定している。
 一実施例に係る教習用の楽曲データ構成の概略をここで簡単に説明する。或る1つの楽曲の教習用の楽曲データ構成は、大別して、イントロ部と練習部とで構成される。イントロ部は、練習する楽曲の音楽的進行を開始する前に行われる予備的部分であり、強弱レッスン機能のための音の強弱の提示の仕方の見本を、ユーザに提示することからなる。練習部は、練習する楽曲の音楽的進行を開始した後に行われる主要部分であり、押鍵ガイド機能と強弱レッスン機能の組合せからなる。イントロ部は、音と表示により、3段階のレベルの可視的及び可聴的な提示の仕方のすべてを演奏者に予め提示することからなり、これにより、可視的及び可聴的に提示される3段階の各レベルの大きさの違いを演奏者に把握させる(つまり、イメージさせる)。練習部に入ると、発音すべき(演奏操作すべき)音の発音タイミングの前に、該演奏操作すべき音の強弱(3段階のレベルのいずれか)をユーザに対して可視的及び/又は可聴的に提示する。例えば可聴的な提示にあっては、演奏すべき音の強さに対応する音量の音を発音することにより、演奏者に押す強さを聴覚的に指示する。また、強弱レッスン機能に並行して行われる押鍵ガイド機能により、演奏操作すべき鍵をガイドする表示を行い、かつ、該鍵を押鍵操作すべきタイミング(発音タイミング)を演奏者に対して可視的に報知する。演奏者が該押鍵ガイド機能により指示された鍵を、前記強弱レッスン機能により提示された強さで、押すと、該鍵を押した強さ(3段階のレベルのいずれか)がディスプレイ121に表示される。次に、演奏者が鍵を押した強さと手本の強さとの比較結果をディスプレイ121に表示し、手本に対する演奏者の演奏の強弱を教示する。なお、上記見本の提示と同時並行的に、イントロ部において、音楽的なイントロ演奏が公知の自動演奏技術にしたがって行われるようになっていてもよい。
 以後の説明において、強弱レッスン機能にしたがって、音の強弱(大きさ)を演奏者(ユーザ)にイメージさせるために、発音タイミングに先行して音の強弱を可聴的に提示するために電子鍵盤楽器1が発音する音を提示音と称し、発音タイミングに先行して音の強弱を可視的に提示するために電子鍵盤楽器1が行う表示を提示レベル表示と称する。また、押鍵ガイド機能にしたがって、所定の発音タイミング(鍵操作タイミング)の近傍で該押鍵すべき鍵をガイド表示することを、音高ガイド表示と称する。また、提示レベル表示において、表示する強さのレベルを目標レベルと称し、演奏者が鍵を押した強さのレベルを検出レベルと称する。
 <表示画面>
 次に、レッスン機能の実行中におけるディスプレイ121の表示画面について説明する。表示画面には、鍵盤10の平面化された模式図(以降、鍵盤図と称する)および強弱インジケータが表示される。音高ガイド表示は、鍵盤図に演奏すべき音高が明示されることで実現される。強弱インジケータは、強さのレベルなどを表示するインジケータである。提示レベル表示は、強弱インジケータを用いて実現される。尚、強弱インジケータの詳細については後述する。また、鍵盤図にて、音高ガイド表示がされている状態をオン状態、音高ガイド表示がされていない状態をオフ状態と称する。同様に、強弱インジケータにて、提示レベル表示がされている状態をオン状態、ガイド表示がされていない状態をオフ状態と称する。
 <強弱インジケータ>
 次に、図2~4を用いて、いくつかのタイプの強弱インジケータについて説明する。図2に示すように、提示レベル表示では、「>」マーク(以下、山括弧マークという)の個数により、目標レベル(つまり、模範演奏における音の強弱)が表現される。電子鍵盤楽器1は、強レベルを、8個の山括弧マークからなる表示図形で表示し、中レベルを、4個の山括弧マークからなる表示図形で表示し、弱レベルを、1個の山括弧マークからなる表示図形で表示する。図3に示すように、演奏者が鍵を押した強さの表示では、黒で塗りつぶした四角からなるマーク(以下、黒四角マークという)の個数により、検出レベル(つまり、ユーザにより演奏された音の強弱)が表現される。電子鍵盤楽器1は、強レベルを、8個の黒四角マークからなる表示図形で表示し、中レベルを、4個の黒四角マークからなる表示図形で表示し、弱レベルを、1個の黒四角マークからなる表示図形で表示する。比較結果(つまり、模範演奏における音の強弱とユーザ演奏における音の強弱との比較結果、すなわち両者の相違を示す情報)は、図4に示すように表示される。電子鍵盤楽器1は、検出レベルが目標レベルに対して強い場合には、左向きの山括弧マーク(<)と黒四角マークの組合せからなる、「強い」を示す表示図形を表示する。検出レベルが目標レベルの範囲内である場合には、黒四角マークのみからなる、「正しい」を示す表示図形を表示する。検出レベルが目標レベルに対して弱い場合には、右向きの山括弧マーク(>)と黒四角マークの組合せからなる、「弱い」を示す表示図形を表示する。
 <楽曲データ>
 次に、本実施例で使用される楽曲データについて説明する。本実施例で使用される楽曲データは、レッスン用に最適化されたデータであり、通常の楽曲データとは適宜異なっている。本実施例の楽曲データは、前述のようにイントロ部および練習部で構成されている。練習部においては、楽曲演奏のために演奏者(ユーザ)が順次に押圧すべき鍵を順次にガイドするために適当な期間が設定されている。つまり、押鍵を促す音高ガイド表示を行った次に演奏者に押鍵させるための或る期間を設定した後、次の音高ガイド表示がなされるように構成されている。
 楽曲データは、楽曲情報(ヘッダ情報)および複数のトラックに記録されたイベント情報群を含む。楽曲情報(ヘッダ情報)は、楽曲データの楽曲名などの情報(イベント情報以外の情報)を含む。各トラックには、時間情報とイベントとの対からなる複数対のデータが当該楽曲に関連する自動演奏及び各種表示の進行シーケンスにしたがって配列されている。イベントとは、処理の内容を指示するデータである。時間情報とは、処理する時間を指示するデータである。複数のトラックのうち、1又はそれ以上のトラックには、レッスン用のデータが収められており、その他のトラックには、伴奏用のデータが収められている。イベントには、MIDIイベントである「ノートオン」および「ノートオフ」と、メタイベントである「鍵盤表示オン」、「鍵盤表示オフ」、「強弱表示オン」、および「強弱表示オフ」などがある。尚、「鍵盤表示オン」、「鍵盤表示オフ」、「強弱表示オン」、および「強弱表示オフ」は、レッスン用のトラックに記録されている。また、提示音を発音開始させるための「ノートオン」イベント及び提示音を消音させるための「ノートオフ」イベントも、レッスン用のトラックに記録されている。
 周知のように、「ノートオン」イベントは或る音(ノート)の発音開始を指示するイベントであり、「ノートオフ」イベントは発音中の或る音(ノート)の消音を指示するイベントであり、「ノートオン」および「ノートオフ」イベントには、「ノートナンバー」、「ベロシティ」などが付随している。「ノートナンバー」とは、音高を指定するデータであり、「ベロシティ」とは、音の強弱を表すデータである。しかし、以下の説明においては、専ら、本発明の実施例にしたがって提示音を発音開始又は消音させるための使用される「ノートオン」又は「ノートオフ」イベントに関してのみ説明する。後述するように、そのような提示音を発音開始又は消音させるための「ノートオン」又は「ノートオフ」イベントに基づいて発音される該提示音は、必ずしも前記「ノートナンバー」によって指定される音高を持つ必要がないことに注意されたい。一例として、提示音を発音開始又は消音させるための使用される「ノートオン」又は「ノートオフ」イベントに付随する「ノートナンバー」のデータは、複数段階(例えば3段階)の音の強弱を可聴的に提示するための提示音の各段階(音の強弱のレベル)に対応する固有の音を指定する情報からなり、それに付随する「ベロシティ」のデータは、該固有の音を発音するときの音量を指定する情報からなる。一例として、前記提示音の各段階に対応する固有の音とは、後述するように「犬の鳴き声」、「猫の鳴き声」、「鳥の鳴き声」のような、固有の音色と固有の音高(時変動する音高)とを持つ音である。この場合、当該提示音によって可聴的に提示される音の強弱のレベルは、該固有の音によって識別可能であるため、「ノートオン」イベントに付随する「ベロシティ」の値は、必ずしも当該提示音が提示しようとする音の強弱のレベルに対応している必要はなく、任意の値であってよい。しかし、これに限らず、変形例として、前記提示音の各段階に対応する固有の音として、共通の音色及び/又は共通の音高を持つ音を使用してもよく、その場合は、「ノートオン」イベントに付随する「ベロシティ」の値を当該提示音が提示しようとする音の強弱のレベルに対応する値に設定し、当該提示音が発する音量によって、音の強弱のレベルを可聴的に提示するようにしてもよい。
 「鍵盤表示オン」および「鍵盤表示オフ」イベントは、音高ガイド表示のためのデータである。「鍵盤表示オン」および「鍵盤表示オフ」イベントには、「ノートナンバー」及び時間情報などが付随している。各「鍵盤表示オン」および「鍵盤表示オフ」イベントに付随する「ノートナンバー」は、レッスン楽曲中の各音の音高を特定するものであり、また、各「鍵盤表示オン」および「鍵盤表示オフ」イベントに対応する時間情報は、レッスン楽曲中の各音の発音タイミングを特定するものである。したがって、前記「鍵盤表示オン」および「鍵盤表示オフ」イベントとそれに対応する時間情報は、模範演奏の各音について発音タイミングと音を特定する演奏情報に相当する。
 「強弱表示オン」および「強弱表示オフ」イベントは、前記提示レベル表示のためのデータであり、該「強弱表示オン」および「強弱表示オフ」イベントには、それぞれに対応する時間情報と「ベロシティ」データなどが付随している。これらの提示レベル表示用の「強弱表示オン」および「強弱表示オフ」の各イベントは、前記提示音用の「ノートオン」および「ノートオフ」の各イベントにそれぞれ対応する関係にあり、前者が模範演奏の各音の強弱を可視的に提示するために使用され、後者が模範演奏の各音の強弱を可聴的に提示するために使用される。したがって、模範演奏中の同じ音に関する前記提示レベル表示のための「強弱表示オン」イベントに対応する時間情報と、前記提示音を発音するための「ノートオン」イベントに対応する時間情報とは、同じタイミングを示し、同じタイミングで該同じ音の強弱を可視的及び可聴的に提示するようになっている。勿論、前記提示レベル表示用の「強弱表示オン」イベントに付随する「ベロシティ」データは、それに対応する前記提示音用の「ノートオン」イベントによって表現される音の強弱のレベル(前記複数段階のいずれか)と同じ強弱レベルを示す。なお、模範演奏の各音の強弱を可視的及び可聴的に提示するための、前記提示レベル表示用の前記「強弱表示オン」イベントに対応する時間情報および前記提示音用の「ノートオン」イベントに対応する時間情報は、それに対応する該模範演奏の各音の前記「鍵盤表示オン」イベントに対応する時間情報よりも、所定先行時間(例えば通常の演奏テンポにおける1拍分の時間)だけ先行するように設定されている。これにより、模範演奏の各音の発音タイミング(前記「鍵盤表示オン」イベントに対応する時間情報により規定されるタイミング)に先行して当該音の強弱情報(前記「強弱表示オン」イベント及び前記提示音用の「ノートオン」)を取得することができるものとなり、後述するように、演奏者に対して、押鍵操作すべき音の発音タイミング(押鍵タイミング)の前に、音の強弱(押鍵操作の強弱)を提示することができる。尚、トラックの最後には、終了コードが記録されている。
 尚、公知のMIDI規格における典型的な「ベロシティ」データは、0~127の値をとる。上記したように、本実施例におけるレッスン機能は、鍵盤10の鍵を3つのレベルの強さで押し分けられるようにできる事を目標としている。このため、楽曲データおよびレッスン機能では、強・中・弱の3段階のレベルに対応させて、ベロシティ値が区分されるようになっていればよい。一例として、ベロシティ値の1~42の範囲が弱レベルに割り当てられ、ベロシティ値の43~84の範囲が中レベルに割り当てられ、ベロシティ値の85~127の範囲が強レベルに割り当てられる。また、レッスン用のトラックに記録された各イベントに含まれる「ベロシティ」データの値としては、弱レベルを示す値として22、中レベルを示す値として64、強レベルを示す値として106、の3段階の値のみを使用すればよい。すなわち、「強弱表示オン」イベントに付随する「ベロシティ」データは、そのような3段階の値のいずれかを示すものであればよい。
 <機能ブロック>
 次に、電子鍵盤楽器1によって実現しうる複数の機能について、図5の機能ブロック図により説明する。電子鍵盤楽器1は、上記した構成の他に、読み出し部41、比較部42、演奏データ生成部43、および表示データ生成部44の機能を実現しうるように構成されている。これらの読み出し部41、比較部42、演奏データ生成部43、および表示データ生成部44は、例えば、データ記憶部20に非一過性で記憶された本発明に係る教習方法に関連する処理プログラム(タスク)をプロセッサ(つまり、図1のCPU16)が実行することにより実現される。その場合、これらの読み出し部41、比較部42、演奏データ生成部43、および表示データ生成部44は、それぞれに対応する機能を実現するように組まれたプログラムモジュール(タスクモジュール)からなる。
 レッスン機能を使用したい演奏者が、ユーザインターフェース12を操作して、所望の楽曲データを選択すると、CPU16は指定された楽曲データをデータ記憶部20から読み出して、RAM18に記憶させる。レッスン機能を開始したい演奏者は、ユーザインターフェース12の「スタート/ストップ」キーを押下する。
 読み出し部41は、ユーザインターフェース12からの信号により、「スタート/ストップ」キーが押下されたと判断すると、RAM18に記憶されている楽曲データの各トラックに含まれる時間情報およびイベントを先頭から順に読み出し、前記タイマ31を用いて該時間情報に従ったタイミングで、該イベントにより規定された命令を比較部42、表示データ生成部44、音源回路13に出力する。こうして、演奏時間が進行されるようになっており、前記読み出し部41は、演奏時間を進行させる手段に相当する。
 演奏時間の進行に伴い、処理すべきイベントが、提示音用の「ノートオン」又は「ノートオフ」イベントであれば、前記読み出し部41は、該「ノートオン」又は「ノートオフ」の命令(メッセージ)Eを音源回路13に供給し、かつ、当該「ノートオン」イベントに付随する「ベロシティ」データd1を比較部42に供給する。音源回路13は、供給された該「ノートオン」又は「ノートオフ」の命令Eが「ノートオン」(発音開始)を指示するならば、該「ノートオン」の命令Eに含まれる「ノートナンバー」データに従い前記3段階の提示音のいずれか1段階に対応する固有の音の音信号を生成し、かつ、該「ノートオン」の命令Eに含まれる「ベロシティ」データに応じた音量を該生成した音信号に付与する。音源回路13で生成された音信号は、効果回路14を経由してサウンドシステム15に供給される。これにより、サウンドシステム15から、前記「ノートオン」の命令Eに応じた提示音が発音される。音源回路13は、供給された該「ノートオン」又は「ノートオフ」の命令Eが「ノートオフ」(消音)を指示するならば、該「ノートオフ」の命令Eに含まれる「ノートナンバー」によって指示される発音中の前記提示音の前記音信号の生成を終了し、該提示音を消音する。
 一方、演奏時間の進行に伴い、処理すべきイベントが、伴奏音用の「ノートオン」又は「ノートオフ」イベントであれば、前記読み出し部41は、該伴奏音用の「ノートオン」又は「ノートオフ」の命令(メッセージ)Gを音源回路13に供給する。音源回路13は、供給された該伴奏音用の「ノートオン」又は「ノートオフ」の命令Gに応じて伴奏音信号を生成又は消音する。音源回路13で生成された伴奏音信号は、効果回路14を経由してサウンドシステム15に供給される。これにより、サウンドシステム15から、前記伴奏音用の「ノートオン」及び「ノートオフ」の命令Gに応じた伴奏音が発音される。
 処理すべきイベントが「強弱表示オン」、「強弱表示オフ」、「鍵盤表示オン」、「鍵盤表示オフ」のいずれかであれば、読み出し部41は、当該イベントに係る「強弱表示オン」又は「強弱表示オフ」の命令B若しくは「鍵盤表示オン」又は「鍵盤表示オフ」の命令Aを表示データ生成部44に供給する。表示データ生成部44は、「鍵盤表示オン」の命令Aが供給されると音高ガイド表示をオン状態にする表示データを作成し、ユーザインターフェース12に出力する。また、「鍵盤表示オフ」の命令Aが供給されると、音高ガイド表示をオフ状態にする表示データを作成し、ユーザインターフェース12に出力する。これにより、ディスプレイ121にて音高ガイド表示がなされる。
 また、表示データ生成部44は、「強弱表示オン」の命令Bが供給されると、提示レベル表示をオン状態にする表示データを作成して、ユーザインターフェース12に出力する。また、「強弱表示オフ」の命令Bが供給されると、提示レベル表示をオフ状態にする表示データを作成して、ユーザインターフェース12に出力する。詳しくは、表示データ生成部44は「強弱表示オン」の命令Bに付随する「ベロシティ」の値が22であれば弱レベルを提示するための表示図形を含む表示データを作成し、値が64であれば中レベルを提示するための表示図形を含む表示データを作成し、値が106であれば強レベルを提示するための表示図形を含む表示データを作成する。これにより、ディスプレイ121にて、提示レベル表示がなされる。
 演奏データ生成部43は、検出回路11から出力される演奏検出信号(ユーザによる演奏操作を示す信号)に基づき演奏データを作成し、比較部42、音源回路13、および表示データ生成部44へ出力する。演奏データはイベントなどで構成されているデータである。イベントには、前記楽曲データと同様に、「ノートオン」、「ノートオフ」などがあり、「ノートオン」および「ノートオフ」イベントには「ノートナンバー」、「ベロシティ」などが付随している。なお、この場合、「ノートナンバー」は、ユーザが押鍵又は離鍵操作した鍵の音高を示し、「ベロシティ」はユーザによる押鍵操作の強弱(音の強弱)を示している。演奏データ生成部43から出力される前記演奏データは、ユーザにより演奏された音を示すユーザ演奏情報であり、該ユーザ演奏情報は、ユーザによる演奏操作の強弱(つまり、音の強弱)を示す情報(ベロシティデータ)を含むものである。したがって、演奏データ生成部43は、前記演奏時間の進行に伴って行われるユーザによる演奏操作に応じて、ユーザにより演奏された音を示すユーザ演奏情報を取得する手段に相当する。演奏データ生成部43から出力された演奏データFは、音源回路13に供給され、該演奏データF(「ノートオン」又は「ノートオフ」イベント)に対応する音高を持つ音信号が音源回路13により生成される。音源回路13で生成された音信号は、効果回路14を経由してサウンドシステム15に供給され、これにより、サウンドシステム15からユーザ演奏音が発音される。
 表示データ生成部44は、演奏データ生成部43から出力される演奏データ中の「ベロシティ」のデータCを入力し、その「ベロシティ」の値に基づいて、強弱インジケータに検出レベルを表示する表示データを生成してユーザインターフェース12へ出力する。詳しくは、表示データ生成部44は「ベロシティ」の値が1~42の範囲であれば弱レベルの表示図形を表示する表示データを生成し、値が43~84の範囲であれば中レベルの表示図形を表示する表示データを生成し、値が85~127の範囲であれば強レベルの表示図形を表示する表示データを生成する。これにより、ディスプレイ121にて、検出レベルCの表示がなされる。
 比較部42は、演奏データ生成部43から出力される演奏データ中の「ベロシティ」のデータCと、読み出し部41から出力される楽曲データの「ベロシティ」データd1とを比較し、その比較結果Dを表示データ生成部44へ出力する。表示データ生成部44は、入力される比較結果Dに基づき、比較結果を表示する表示データを生成し、ユーザインターフェース12へ出力する。詳しくは、まず、比較部42は演奏データ中の「ベロシティ」のデータCの値が、弱レベル、中レベル、強レベルの3段階のうちどれに属するかを判断する。値が1~42の範囲であれば弱レベルであり、値が43~84の範囲であれば中レベルであり、値が85~127の範囲であれば強レベルであると判断する。次に、判断した演奏データのレベルが楽曲データの「ベロシティ」データd1が示すレベルと同じか否かを判断する。上記したように、楽曲データの「ベロシティ」データd1の値が22であれば弱レベルであり、値が64であれば中レベルであり、値が106であれば強レベルである。演奏データに基づくレベルが、楽曲データに基づくレベルと同じであると判断した場合には、「正しい」という比較結果Dを表示データ生成部44へ出力する。一方、演奏データに基づくレベルが、楽曲データに基づくレベルと同じでないと判断した場合には、演奏データに基づくレベルが楽曲データに基づくレベルより大きいか否かを判断する。演奏データに基づくレベルが、楽曲データに基づくレベルよりも大きいと判断した場合には、「強い」という比較結果Dを表示データ生成部44へ出力する。一方、演奏データに基づくレベルが、楽曲データに基づくレベルよりも小さいと判断した場合には、「弱い」という比較結果Dを表示データ生成部44へ出力する。表示データ生成部44は、比較結果Dに応じた表示図形を生成し、ユーザインターフェース12へ出力する。これにより、ディスプレイ121にて、比較結果Dの表示がなされる。なお、比較結果Dの表示は、例えば、「強弱表示オフ」の命令Bに応じてオフされる。
 <レッスン機能の詳細>
 次にレッスン機能の詳細について図6を用いて説明する。図6において、「音高ガイド表示」の行においては、音高ガイド表示の一例を時間軸に沿って示しており、音高ガイド表示がオン状態の期間を矩形図形で示している。図6の「提示レベル表示」の行においては、提示レベル表示の一例を時間軸に沿って示しており、提示レベル表示がオン状態の期間を矩形図形で示し、かつ、該提示レベル表示における目標レベルの違い(強・中・弱)を該矩形図形内に異なるハッチングを付すことで区別している。なお、図6の「提示レベル表示」の行においては、押鍵に応じた検出レベルを表示している期間も特有の矩形図形(C)で示しており、かつ、前記比較結果を表示している期間も特有の矩形図形(D)で示している。図6の「提示音発音」の行においては、提示音を発音する一例を時間軸に沿って示しており、該提示音を発音している期間を矩形図形で示し、かつ、発音する該提示音の音量レベルの違い(強・中・弱)を該矩形図形内に異なるハッチングを付すことで区別している。図6の「押鍵」の行においては、演奏者による押鍵操作例を時間軸に沿って示しており、該演奏者が押鍵操作している期間を矩形図形で示している。なお、図6の横軸は時間軸であり、演奏者が「スタート/ストップ」キーを押したタイミングを起点としている。ただし、図6は、電子鍵盤楽器1の表示および発音の手順を便宜的に説明するための図であり、例えば各表示のオン状態の期間などの期間の相対的な長短を限定するものではない。すなわち、図6横軸の時間軸は、均一な時間スケールを示すものではない。
 「スタート/ストップ」キーが押下されると、電子鍵盤楽器1は伴奏の再生を開始する。電子鍵盤楽器1は、イントロ部において、強レベル、中レベル、弱レベルのすべての音の強弱について、見本として、それぞれの提示音を順次発音するとともに、それぞれの提示レベル表示を順次行う。提示音は、音の強弱のレベルに依存して、音の種類が異なる。ここでは、強レベルは犬の鳴き声(例えば、ワン)であり、中レベルは猫の鳴き声(例えば、ニャー)であり、弱レベルは鳥の鳴き声(例えば、ピヨ)である。
 電子鍵盤楽器1は、時刻t1~t2までの発音期間TDの間、前記読み出し部41による読み出しに基づき、見本として、前記ディスプレイ121における強弱インジケータで強レベルの表示図形を表示し、前記サウンドシステム15を介して強レベルの提示音を発音する。次に、前記読み出し部41による読み出しに基づき、見本として、時刻t3に、該強弱インジケータで中レベルの表示図形を表示し、かつ、前記サウンドシステム15を介して中レベルの提示音の発音と開始し、所定の発音期間TD経過後に、該表示および発音を終了する。次に、前記読み出し部41による読み出しに基づき、見本として、時刻t4に該強弱インジケータで弱レベルの表示図形を表示し、かつ、前記サウンドシステム15を介して弱レベルの提示音の発音を開始し、時刻t3から所定の発音期間TD経過後に提示音の発音と、該強弱インジケータの表示を終了する。これにより、練習部に入る前に、演奏者は、提示される音の強弱のレベルの違いを示す見本として、強、中、弱のレベルに応じた、例えば、「ワン」、「ニャー」、「ピヨ」の提示音を聞くことができ、また、各表示図形を見ることで、音の強弱をイメージすることができる。
 前記読み出し部41による読み出しに基づき、時刻t5で楽曲はイントロ部から練習部の1小節目に移行するように制御される。時刻t5以後は、前記読み出し部41による読み出しに基づき、演奏時間の進行に伴って、以下に述べるような制御が行われる。なお、練習部において、押鍵ガイド機能(音高ガイド表示)にしたがって順次指示される演奏(レッスン楽曲)を模範演奏と言う。まず、電子鍵盤楽器1は、時刻t6において、前記読み出し部41を介して読み出した前記提示音用の「ノートオン」の命令Eと前記提示レベル表示用の「強弱表示オン」の命令Bに基づいて、模範演奏の最初の音N1についての該音の強弱の可視的及び可聴的提示を開始する。図示例において、模範演奏の最初の音N1の音の強弱は強レベルであると仮定している。すなわち、時刻t6において強弱インジケータで強レベルの表示図形の表示と強レベルの提示音の発音とを開始し、時刻t6から所定の発音期間TD経過後に該提示音の発音を停止する。尚、提示音を発音する期間の長さは、すべて共通の所定の発音期間TDであるため、提示音の終了に関する説明は以後、省略する。時刻t6から前記所定先行時間(例えば通常の演奏テンポにおける1拍分の時間)に相当する時間経過後に時刻t7が到来すると、該時刻t7から期間TDの期間、前記読み出し部41を介して読み出した前記「鍵盤表示オン」及び「鍵盤表示オフ」の命令Aに基づいて、模範演奏の最初の音N1の音高を指示する音高ガイド表示を行う。次に、時刻t8で、強弱インジケータにおける強レベルの表示図形の表示を終了する。これにより、演奏者は、時刻t6~t7の間で提示音(例えば「ワン」)を聞いたとき、押鍵すべき発音タイミングが間近に到来したことを知ることができ、かつ、時刻t6~t8の間で表示される強レベルの表示図形を視認しつつ、前記音高ガイド表示(鍵盤図)を見て、最初の音N1として押鍵すべき音高(鍵)を知ることができる。なお、図示例においては、演奏者は、最初の音N1を押鍵し損ねている。
 時刻t8の後、時刻t9において、電子鍵盤楽器1は、前記読み出し部41を介して読み出した前記提示音用の「ノートオン」の命令Eと前記提示レベル表示用の「強弱表示オン」の命令Bに基づいて、模範演奏の2番目の音N2についての該音の強弱の可視的及び可聴的提示を開始する。図示例において、模範演奏の2番目の音N2の音の強弱は中レベルであると仮定している。このように、模範演奏における音の強弱が変化することを演奏者に判り易くするために、時刻t8から時刻t9までの時間は、息継ぎの時間として、例えば1秒程度の長さに設定される。これにより、演奏者は、目標レベルが切り替わることを視認し易くなる。なお、前述のとおり、このレッスン楽曲は、特に、模範演奏として提示された音の強弱に応じた強さで初心者が押鍵操作ができるようにするための教習を目的としているので、必ずしも通常の演奏テンポに従う正確な時間レートで進行されるものではない。例えば、図6で「1小節」と記載された時間範囲は、レッスン楽曲における1小節を示しているが、この1小節の時間範囲は、必ずしも音楽的に正確な1小節の時間長(例えば4拍分の時間長)に対応するものではない。たとえば、前記所定先行時間を「例えば通常の演奏テンポにおける1拍分の時間」と括弧書きして例示しているが、この部分では通常の演奏テンポにおける1拍分の時間がキープされていてよい。しかし、その後の時刻t8から時刻t9までに息継ぎの時間(例えば1秒程度)が設定されることにより、図6における「1小節」分の時間範囲のトータル長は、必ずしも音楽的に正確な1小節の時間長(例えば4拍分の時間長)に対応するものとはならないことが理解され得るであろう。
 電子鍵盤楽器1は、時刻t9において強弱インジケータで中レベルの表示図形の表示と中レベルの提示音の発音と開始し、時刻t9から1拍に相当する時間後の時刻t10から期間TDの間、模範演奏の2番目の音N2の音高を指示する音高ガイド表示を行い、時刻t11で強弱インジケータの中レベルの表示図形の表示を終了する。前述と同様に、時刻t11から時刻t12までの時間が、息継ぎの時間として設定される。そして、時刻t12において、電子鍵盤楽器1は、前記読み出し部41を介して読み出した前記提示音用の「ノートオン」の命令Eと前記提示レベル表示用の「強弱表示オン」の命令Bに基づいて、模範演奏の3番目の音N3についての該音の強弱の可視的及び可聴的提示を開始する。図示例において、模範演奏の3番目の音N3の音の強弱は弱レベルであると仮定している。こうして、時刻t12から、強弱インジケータで弱レベルの表示図形の表示と、弱レベルの提示音の発音とが開始される。そして、該時刻t12から前記所定先行時間(例えば通常の演奏テンポにおける1拍分の時間)に相当する時間経過後に時刻t13が到来すると、時刻t13から期間TDの間、前記読み出し部41を介して読み出した前記「鍵盤表示オン」及び「鍵盤表示オフ」の命令Aに基づいて、模範演奏の3番目の音N3の音高を指示する音高ガイド表示が行われる。その後、時刻t14で強弱インジケータの弱レベルの表示図形の表示を終了する。なお、図示例においては、演奏者は、2番目及び3番目の音N2、N3も押鍵し損ねている。
 前述と同様に、時刻t14から時刻t15までの時間が、息継ぎの時間として設定される。そして、時刻t15において、電子鍵盤楽器1は、前記読み出し部41を介して読み出した前記提示音用の「ノートオン」の命令Eと前記提示レベル表示用の「強弱表示オン」の命令Bに基づいて、模範演奏の4番目の音N4についての該音の強弱の可視的及び可聴的提示を開始する。図示例において、模範演奏の4番目の音N4の音の強弱は弱レベルであると仮定している。こうして、時刻t15から、強弱インジケータで弱レベルの表示図形の表示と、弱レベルの提示音の発音とが開始される。そして、時刻t15から前記所定先行時間(例えば通常の演奏テンポにおける1拍分の時間)に相当する時間経過後に時刻t16が到来すると、該時刻t16から期間TDの間、前記読み出し部41を介して読み出した前記「鍵盤表示オン」及び「鍵盤表示オフ」の命令Aに基づいて、模範演奏の4番目の音N4の音高を指示する音高ガイド表示が行われる。図示例においては、時刻t17から時刻t18まで、演奏者が、中レベルで押鍵操作したと仮定している。この場合、前記検出回路11が当該押鍵操作を検出するのに応じて、前記演奏データ生成部43により当該押鍵操作の強さ(中レベル)を示す検出レベルCが生成され、前記ディスプレイ121における強弱インジケータには、該生成された検出レベルCに応じて中レベルの表示図形が表示される。そして、比較結果Dを表示する表示データがユーザインターフェース12へ出力されると、強弱インジケータには、時刻t18から「強い」という比較結果Dに対応する表示図形の表示が開始され、時刻t19で、該表示が終了される。これにより、演奏者は、押鍵した強さが、手本、つまり本来演奏すべき強さよりも強いことを知ることができる。続いて、時刻t20で練習部の2小節目に移行する。尚、その後、読み出し部41が演奏データの終了コードを読み出した場合、「スタート/ストップ」キーが押下された場合、電子鍵盤楽器1は楽曲データの再生を終了する。
 次に、楽曲データおよび機能ブロックについて、説明を補足する。図6に例示した内容の楽曲データのレッスン用のトラックには、例えば、練習部の時刻t5から時刻t8に対応する部分のイベントとして、「強弱表示オン」、「ノートオン」、「ノートオフ」、「鍵盤表示オン」、「鍵盤表示オフ」、「強弱表示オフ」が順に並んでいる。尚、鍵盤10における演奏データFとして複数の「ノートオン」が入力された場合には、音源回路13は、複数の「ノートオン」に対応するデジタルオーディオ信号を出力する。これにより、演奏データFに応じた複数の音が重複して、サウンドシステム15から発音される。一方、表示データ生成部44は、強弱インジケータの表示に関する命令である、「強弱表示オン」の命令、「強弱表示オフ」の命令、演奏データ、比較結果、が入力されると、後着優先で処理する。例えば、時刻t17で、演奏データが入力されると、表示を、目標レベルの表示(提示レベル表示B)から検出レベルCの表示に切り替える。時刻t18で、比較結果が入力されると表示を比較結果Dの表示に切替える。また、時刻t19で、「強弱表示オフ」の命令Bが表示データ生成部44に入力されると、表示データ生成部44は、強弱インジケータにおける表示内容が検出レベルCか、比較結果Dか、目標レベル(提示レベル表示B)かにかかわらず、該強弱インジケータの表示をオフ状態にする。
 上述した実施例において、前記「鍵盤表示オン」および「鍵盤表示オフ」イベント(命令A)とそれに対応する時間情報は、模範演奏の各音について発音タイミングと音を特定する演奏情報に相当する。また、前記提示レベル表示用の前記「強弱表示オン」および「強弱表示オフ」イベントとそれに付随する「ベロシティ」データ(命令B)並びに前記提示音用の前記「ノートオン」および「ノートオフ」イベント(命令E)は、模範演奏の各音について音の強弱を示す強弱情報に相当する。したがって、データ記憶部20(RAM18)は、模範演奏の各音について、発音タイミングと音を特定する演奏情報及び音の強弱を示す強弱情報を供給する供給手段の一例である。また、前記読み出し部41が、前記時間情報に従ったタイミングで各イベントにより規定された命令をデータ記憶部20(RAM18)から順次読み出すように機能する構成は、演奏時間を進行させる手段の一例である。また、前記提示レベル表示用の前記「強弱表示オン」イベントに対応する時間情報および前記提示音用の「ノートオン」イベントに対応する時間情報は、それに対応する該模範演奏の各音の前記「鍵盤表示オン」イベントに対応する時間情報よりも、前記所定先行時間(例えば通常の演奏テンポにおける1拍分の時間)だけ先行するように設定されており、したがって、前記読み出し部41による読み出し出力に基づいて前記表示データ生成部44を介して前記ユーザインターフェース12で表示される前記提示レベル表示Bの表示開始タイミングおよび前記音源回路13を介して前記サウンドシステム15から発音される前記提示音Eの発音開始タイミングが、それに対応する前記「鍵盤表示オン」の開始タイミング(発音タイミング)よりも、前記所定先行時間だけ先行するように制御されることになる。したがって、前記読み出し部41、前記表示データ生成部44、前記ユーザインターフェース12、前記音源回路13、前記サウンドシステム15の協働により、前記「鍵盤表示オン」の開始タイミング(発音タイミング)に先行して前記提示レベル表示Bを行いかつ前記提示音Eを発音するようにした構成は、前記演奏時間の進行に伴って、前記模範演奏の各音について、前記発音タイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該音の強弱を提示する提示手段の一例である。また、前記読み出し部41による読み出し出力(「鍵盤表示オン」および「鍵盤表示オフ」の命令A)に基づき前記表示データ生成部44を介して前記ユーザインターフェース12を介して押鍵ガイドを行う構成は、前記模範演奏の各音の前記演奏情報に基づき、前記演奏時間の進行に伴って、前記ユーザが演奏すべき音をガイドする演奏ガイド手段の一例である。
 以上、説明した実施形態によれば、次のような効果を奏する。演奏者は、押鍵ガイド機能(鍵盤図での表示)により知ることができる押鍵すべき音の発音タイミングの前に、強弱インジケータでの提示レベル表示および提示音発音にて、押鍵すべき音の強弱を知ることができるので、押鍵すべき音の強弱を意識しながら、押鍵演奏操作を練習することができる。また、レッスン用トラックのデータの並びにおいて、提示レベル表示のための「強弱表示オン」および提示音を発音するための「ノートオン」は、対応する「鍵盤表示オン」の前になっているため、電子鍵盤楽器1は発音タイミングの前に提示レベル表示および提示音の発音をすることができる。また、演奏者は、強弱の3つのレベルを提示音および提示レベル表示により、練習部の前のイントロ部で、予め知ることができるので、演奏のイメージを持ちつつ、練習することができる。また、強弱インジケータには、比較結果が表示されるので、演奏者は自身が行った演奏の結果を知ることができる。
 [変形例]
 尚、本発明は前記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲内での種々の改良、変更が可能であることは言うまでもない。例えば、上記では、楽曲データはイントロ部および練習部を備えると説明したが、イントロ部を備えず、練習部を備える構成としても良い。この場合、電子鍵盤楽器1は、前記イントロ部と同様の機能を実現するために、すなわち所定の複数の段階の各々について音の強弱の提示の仕方を、見本として、演奏者(ユーザ)に提示するために、挿入データ生成部を備える構成とすると良い。すなわち、該挿入データ生成部は、前記イントロ部を用いることなく、前記練習部の演奏進行を開始する前に、所定の複数の段階の各々について音の強弱の提示の仕方(提示音の出し方及び提示レベル表示の仕方)を、見本として、演奏者(ユーザ)に提示するように構成される。その場合、楽曲データの楽曲情報(ヘッダ情報)に、レッスン用トラックで使用しているすべての強弱レベルの見本を示す情報が含まれるように構成とすると良い。例えば、レッスン用トラックに記憶している練習部のデータにおいて、「ベロシティ」の値として、小レベル、中レベルおよび強レベルに対応する3段階のすべての値が使用されている場合には、楽曲情報(ヘッダ情報)に含めるべき強弱レベルの見本情報として、小レベル、中レベルおよび強レベルのすべての見本情報が含まれるようにする。前記挿入データ生成部は、読み出し部41が前記練習部の読み出しを始める前に、楽曲情報(ヘッダ情報)内の強弱レベルの見本情報に基づいて、小レベル、中レベルおよび強レベルの各々の「強弱表示オン」および「強弱表示オフ」の命令を表示データ生成部44へ順に出力し、かつ、各々の「ノートオン」および「ノートオフ」の命令を音源回路13へ順に出力する。これにより、練習部の再生の前に、見本としての、小レベル、中レベルおよび強レベルの提示レベル表示、提示音の発音がなされる。このような構成にすることにより、楽曲データにイントロ部がない構成であっても、練習部の再生の前に、提示音の発音および提示レベル表示をすることができる。なお、練習対象である練習部のデータにおいて使用されていない強弱レベルに関しては、前記楽曲情報(ヘッダ情報)内にその見本情報が含まれていなくてもよい。例えば、練習部において中レベルおよび強レベルしか使用されていない場合は、中レベルおよび強レベルの提示音及び提示レベル表示のみを見本として提示すればよい。これは、前記イントロ部に見本情報(イベント)を含む場合も同様である。
 また、上記実施例において、楽曲データの練習部には、提示レベル表示用の「強弱表示オン」および「強弱表示オフ」イベント、及び/又は提示音用の「ノートオン」および「ノートオフ」イベントが予め含まれている(記憶されている)が、これらの提示レベル表示用及び/又は提示音用のイベントが練習部のトラックに予め含まれていない(記憶されていない)ように構成しても良い。この場合、読み出し部41は、演奏ガイド用の「鍵盤表示オン」および「鍵盤表示オフ」イベントを演奏時間の進行に伴って順次読み出す過程で、次に到来する「鍵盤表示オン」イベントに対応する時間情報が示す発音タイミングよりも前記所定先行時間(例えば通常の演奏テンポにおける1拍分の時間)だけ先行するタイミングを決定し、該決定したタイミングで、提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eを生成し出力するようにしてよい。その場合、該「鍵盤表示オン」イベントに付随する「ベロシティ」データを先読みして、該先読みした「ベロシティ」データに基づき、該生成する提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eに付随させる「ベロシティ」データ(強弱情報)を生成するようにすればよい。勿論、各「鍵盤表示オン」イベントにおいては、該イベントにしたがって押鍵されるべき鍵の強さ(音の強弱)を示す「ベロシティ」データが付随されているものとする。なお、この場合、該生成出力した「強弱表示オン」の命令Bに対応する「強弱表示オフ」の命令Bおよび「ノートオン」の命令Eに対応する「ノートオフ」の命令Eは、それぞれ所定の時間経過後に、読み出し部41から自動的に生成出力するものとする。
 別の変形例として、楽曲データの練習部において、提示レベル表示用の「強弱表示オン」イベント及び/又は提示音用の「ノートオン」イベントを予め含む(記憶する)が、これらの提示レベル表示用及び/又は提示音用のイベントに対応する専用の時間情報は含まず(記憶せず)、これらのイベントをそれに対応する演奏ガイド用の「鍵盤表示オン」イベントと同じ時間位置に配列(記憶)するようにしてよい。すなわち、提示レベル表示用の「強弱表示オン」イベント及び/又は提示音用の「ノートオン」イベントは、専用の時間情報を持たず、同じ時間位置に配列(記憶)された演奏ガイド用の「鍵盤表示オン」イベントに対応する時間情報を援用する。この場合、読み出し部41は、演奏ガイド用の「鍵盤表示オン」および「鍵盤表示オフ」イベントを演奏時間の進行に伴って順次読み出す過程で、次に到来する「鍵盤表示オン」イベントに対応する時間情報が示す発音タイミングよりも前記所定先行時間(例えば通常の演奏テンポにおける1拍分の時間)だけ先行するタイミングを決定し、該決定したタイミングで、該「鍵盤表示オン」イベントと同じ時間位置に配列(記憶)された提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eを先読みして、該先読みした提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eを出力する。前述のように、練習部に含まれる(記憶される)提示レベル表示用の「強弱表示オン」イベントおよび提示音の「ノートオン」イベントには、音の強弱を示す強弱情報が含まれているので、先読みされる提示レベル表示用の「強弱表示オン」の命令Bおよび提示音の「ノートオン」の命令Eには、音の強弱を示す強弱情報が含まれている。なお、この場合も、該出力した「強弱表示オン」の命令Bに対応する「強弱表示オフ」の命令Bおよび「ノートオン」の命令Eに対応する「ノートオフ」の命令Eは、それぞれ所定の時間経過後に、読み出し部41から自動的に生成出力するようにすればよい。
 また、提示音の音の種類として、動物の鳴き声を例示したが、これに限定されない。例えば、シンバル、太鼓、笛、ピアノ音などの楽器の音などとしても良い。この場合、和音でも良い。
 また、上記実施例では、音高ガイド表示を鍵盤図にて音高を明示すると説明したが、これに限定されない。本レッスン機能では、強さをレッスンするものであるため、音高を明示しない図形、例えば鍵盤図を伴わない丸印など、を表示しても良い。また、押鍵ガイド機能(音高ガイド表示)を具備しないものであってもよい。
 また、上記実施例では、目標レベルが変更される際に、提示レベル表示がオフ状態となる期間は、例えば1秒程度であると説明したが、これに限定されない。例えば、楽曲データの再生のテンポに応じて変更する構成としても良い。例えば、テンポが遅い場合には、オフ状態となる期間を例えば4分音符、あるいは2分音符の音価に相当する時間とすると良い。尚、再生のテンポは、楽曲データに含まれる値としても良く、電子鍵盤楽器1のユーザインターフェース12で演奏者により設定されたテンポとしても良い。
 また、上記実施例では、目標レベルが変更される際に、提示レベル表示を一旦オフ状態にする構成について説明したが、これに限定されない。目標レベルが変更されるまで、最新の提示レベル表示のオン状態を維持し、これにより、途切れることなく表示図形を切替える構成としても良い。この場合、表示データ生成部44は入力信号に対し、後着優先で処理するため、楽曲データにおいて「強弱表示オン」イベントの前に位置する「強弱表示オフ」イベントを省略してよい。
 また、上記実施例では、提示音が1回発音されるのに対して、音高ガイド表示が1回される例を説明したが、回数はこれに限定されない。例えば、提示音が1回あるいは複数回、発音された後に、音高ガイド表示が複数回行われる構成としても良いし、提示音が複数回発音された後に、音高ガイド表示が1回、あるいは複数回行われる構成としても良い。また、音高ガイド表示される音高(鍵)のすべてについて音の強弱を提示する(提示音及び/又は提示レベル表示する)ことなく、音の強弱に関する演奏練習を行うことが必要とされる1以上の音について音の強弱を提示する(提示音及び/又は提示レベル表示する)ようにしてよい。すなわち、本発明における模範演奏とは、音の強弱に関する模範演奏のことを言う。
 また、上記実施例では、提示音発音および提示レベル表示のレベルを3段階で提示しているが、これに限らず、強・弱の2段階でも、あるいは、4段階以上のレベルで提示しても良い。また、上記実施例では、3段階で提示する際に、「ベロシティ」の値を1~42、43~84、85~127の範囲で区分しているが、これらの値に限定するものではない。例えば、演奏者が、例えばユーザインターフェース12を操作して自由にレベルの範囲を設定できる構成としても良く、楽曲データにより異なる範囲としても良い。また、楽曲のジャンル毎に異なる範囲で設定される構成としても良い。
 また、上記実施例では、提示レベル表示および/又は提示音を発音タイミング(音高ガイド表示)に先行して提示するための所定先行時間の長さは、1拍に相当する時間に限定されず、を1拍よりも短い時間としても良い。しかし、所定先行時間を1拍に相当する時間とすると、演奏者のテンポカウント感覚に合うので、提示された音の強さで演奏者が押鍵操作するための心的準備ができ易くなり、好ましい。
 また、強弱インジケータの表示は上記実施例に限定されない。上記実施例では、目標レベル(提示レベル表示)、検出レベル、比較結果が切り替わる構成について説明したが、これらのすべて、あるいは何れか2つが同時に表示される構成としても良い。また、表示図形も上記実施例に限定されない。例えば、目標レベルが、強・中・弱などの文字で表示されても良いし、レベルに応じて異なる色で表示されても良い。また、例えば、目標レベル(提示レベル表示)は点滅無しで表示し、検出レベルは点滅有りで表示する、というように、表示の種類に応じて、表示形態を異なる構成としても良い。
 また、上記実施例では、比較結果を表示すると説明したが、これに限定されない。例えば、「良・悪」、点数表示などの評価を表示するようにしても良い。この場合、押鍵操作に係る「ベロシティ」(音の強弱)の評価に加えて、例えば、押鍵操作に係る音高及び/又は操作タイミングなどの項目を評価するようにしても良い。
 尚、上記実施例では、読み出し部41、比較部42、演奏データ生成部43、および表示データ生成部44は、CPU16(汎用のプロセッサ)が所要のプログラム(処理又はタスク)を実行することなどで実現されると説明したが、これに限定されず、専用の電気回路で実現しても良く、CPU16が実行する処理と専用の電気回路とを組み合わせて実現しても良い。
 また、楽曲データはデータ記憶部20に記憶されていると説明したが、これに限定されない。ネットワークインターフェース21を介して、サーバから楽曲データをダウンロードする構成としても良い。また、電子鍵盤楽器1の構成は上記に限定されない。楽曲データが記憶されている、例えばDVD、USBメモリなどの記憶媒体とデータの送受を行うインターフェースを備える構成としても良い。また、ネットワークインターフェース21はLAN通信を行うと説明したが、これに限定されない。他のネットワーク、例えば、MIDI、USB、Bluetooth(登録商標)などの規格に則った通信を行う構成としても良い。この場合、ネットワークに接続されている、他の機器例えばPCなどの通信機器が記憶している楽曲データを使用して、もしくは、遠隔地から送信された楽曲データを使用して、処理を実行するようにしても良い。
 また、楽曲データはMIDI形式のデータであると説明したが、これに限定されず、例えば、オーディオデータでもよい。この場合、オーディオデータをMIDIデータに変換して、処理を実行する構成とすると良い。また、楽曲データは複数のトラックを有すると説明したが、これに限定されず、1つのトラックで構成されても良い。
 また、電子鍵盤楽器1はタイマ31を備えていると説明したが、CPU16がプログラムを実行することで、タイマ機能を実現する構成としても良い。
 また、上記実施例では、鍵盤10を演奏操作子とする電子鍵盤楽器1を例示して説明したが、これに限定されない。例えば、吹いて発音させる形態や、弦や細いスティック状の操作子をはじいて発音させる形態の楽器又は電子楽器にも本発明は適用可能である。例えば、操作子の動く速さを検出するセンサを備え、検出信号に応じて演奏の強弱のレベルを表示する構成とすると良い。また、演奏音の音量を例えばマイクロフォンなどで検出して、音量を強弱のレベルとして表示する構成としても良い。

Claims (13)

  1.  模範演奏の各音について、発音タイミングと音を特定する演奏情報及び音の強弱を示す強弱情報を供給する供給手段と、
     演奏時間を進行させる手段と、
     前記演奏時間の進行に伴って、前記模範演奏の各音について、前記発音タイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該音の強弱を提示する提示手段、
    を備える演奏教習装置。
  2.  前記演奏時間の進行に伴って行われるユーザによる演奏操作に応じて、ユーザにより演奏された音を示すユーザ演奏情報を取得する手段をさらに備え、前記ユーザ演奏情報は音の強弱を示す情報を含み、
     前記提示手段は、さらに、前記ユーザ演奏情報に基づき、前記ユーザにより演奏された音の強弱を提示するように構成されている、請求項1に記載の演奏教習装置。
  3.  前記提示手段は、さらに、前記強弱情報と前記ユーザ演奏情報に含まれる前記音の強弱を示す情報との比較に基づき、前記模範演奏における音の強弱と前記ユーザ演奏における音の強弱との相違を示す情報を提示するように構成されている、請求項2に記載の演奏教習装置。
  4.  前記提示手段は、前記音の強弱を、少なくとも可視的又は可聴的な手法で提示するように構成されている、請求項1乃至3のいずれかに記載の演奏教習装置。
  5.  前記提示手段は、前記音の強弱を、可視的及び可聴的な手法で提示する場合、可視的手法による提示時間の方が可聴的な手法による提示時間よりも長くなるように構成されている、請求項4に記載の演奏教習装置。
  6.  前記供給手段は、前記模範演奏の各音についての前記強弱情報に対応して、当該音の前記発音タイミングに先行するように当該音の強弱を提示すべきタイミングを規定する提示タイミング情報をさらに供給するものであり、
     前記提示手段は、前記提示タイミング情報に従って前記発音タイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該音の強弱を提示する、請求項1乃至5のいずれかに記載の演奏教習装置。
  7.  前記提示手段は、前記音の強弱を、所定の複数の段階の何れかで提示する、請求項1乃至6のいずれかに記載の演奏教習装置。
  8.  前記提示手段は、さらに、前記所定の複数の段階の各々について音の強弱の提示の仕方の見本を、ユーザに提示するように構成されている、請求項7に記載の演奏教習装置。
  9.  前記模範演奏の各音の前記演奏情報に基づき、前記演奏時間の進行に伴って、前記ユーザが演奏すべき音をガイドする演奏ガイド手段をさらに備える、請求項1乃至8のいずれかに記載の演奏教習装置。
  10.  前記供給手段は、教習すべき楽曲に対応する前記模範演奏の各音について、前記演奏情報及び強弱情報を記憶したメモリを含む、請求項1乃至9のいずれかに記載の演奏教習装置。
  11.  請求項1乃至10のいずれかに記載の前記演奏教習装置と、
     ユーザによって演奏される演奏操作装置と、
     前記演奏操作装置で演奏された音を発生する音発生装置、
    を備える楽器。
  12.  模範演奏の各音について、発音タイミングと音を特定する演奏情報及び音の強弱を示す強弱情報を取得することと、
     演奏時間を進行させることと、
     前記演奏時間の進行に伴って、前記模範演奏の各音について、前記発音タイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該音の強弱を提示すること、
    からなる演奏教習方法。
  13.  演奏教習方法を実行するための、1以上のプロセッサによって実行可能な、プログラムを記憶する、コンピュータ読取可能な非一過性記憶媒体であって、前記演奏教習方法は、
     模範演奏の各音について、発音タイミングと音を特定する演奏情報を取得し、前記模範演奏における2以上の音の各々について、音の強弱を示す強弱情報を取得することと、
     演奏時間を進行させることと、
     前記演奏時間の進行に伴って、前記模範演奏における前記2以上の音の各々について、当該音の前記発音タイミングに先行して前記強弱情報を取得し、取得した強弱情報に基づき当該音の強弱を提示すること、
    からなる非一過性記憶媒体。
PCT/JP2017/033921 2016-09-21 2017-09-20 演奏教習装置及び方法 WO2018056310A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780057945.9A CN109791757B (zh) 2016-09-21 2017-09-20 演奏训练装置及方法
US16/357,814 US10629090B2 (en) 2016-09-21 2019-03-19 Performance training apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016184058A JP6720797B2 (ja) 2016-09-21 2016-09-21 演奏教習装置、演奏教習プログラム、および演奏教習方法
JP2016-184058 2016-09-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/357,814 Continuation-In-Part US10629090B2 (en) 2016-09-21 2019-03-19 Performance training apparatus and method

Publications (1)

Publication Number Publication Date
WO2018056310A1 true WO2018056310A1 (ja) 2018-03-29

Family

ID=61691004

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/033921 WO2018056310A1 (ja) 2016-09-21 2017-09-20 演奏教習装置及び方法

Country Status (4)

Country Link
US (1) US10629090B2 (ja)
JP (1) JP6720797B2 (ja)
CN (1) CN109791757B (ja)
WO (1) WO2018056310A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6729052B2 (ja) * 2016-06-23 2020-07-22 ヤマハ株式会社 演奏指示装置、演奏指示プログラム、および演奏指示方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5828794A (ja) * 1981-08-14 1983-02-19 ヤマハ株式会社 電子楽器の音声指示装置
JPS60177396A (ja) * 1984-02-24 1985-09-11 ヤマハ株式会社 楽譜表示装置
JPH06301333A (ja) * 1994-04-11 1994-10-28 Casio Comput Co Ltd 演奏教習装置
JPH10187022A (ja) * 1996-10-18 1998-07-14 Yamaha Corp 音楽教習システム、音楽教習方法、及び同方法を実現するためのプログラムを記録した記録媒体
JP2001100751A (ja) * 1999-09-29 2001-04-13 Kawai Musical Instr Mfg Co Ltd 鍵盤タッチトレーニング装置
JP2004118165A (ja) * 2002-09-30 2004-04-15 Casio Comput Co Ltd 手形表示装置、演奏案内装置、手形表示プログラム、及び演奏案内プログラム
JP2006065186A (ja) * 2004-08-30 2006-03-09 Kawai Musical Instr Mfg Co Ltd テンポ情報出力装置、テンポ情報出力方法及びテンポ情報出力のためのコンピュータプログラム、タッチ情報出力装置、タッチ情報出力方法及びタッチ情報出力のためのコンピュータプログラム
JP2006276333A (ja) * 2005-03-29 2006-10-12 Yamaha Corp 電子楽器及びベロシティ表示プログラム
JP2007264059A (ja) * 2006-03-27 2007-10-11 Yamaha Corp 電子楽器

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2519715Y2 (ja) * 1989-02-07 1996-12-11 ヤマハ株式会社 打鍵強度表示装置
CN1216353C (zh) 1996-10-18 2005-08-24 雅马哈株式会社 音乐教学系统和教学方法
JP3826697B2 (ja) 2000-09-19 2006-09-27 ヤマハ株式会社 演奏表示装置および演奏表示方法
JP2002244652A (ja) * 2001-02-20 2002-08-30 Kawai Musical Instr Mfg Co Ltd 電子楽器
CN1503088A (zh) * 2002-11-26 2004-06-09 科 曾 一种电子节拍校音器的纵向演示的方法
US7834261B2 (en) * 2005-09-30 2010-11-16 Pioneer Corporation Music composition reproducing device and music composition reproducing method
US7538266B2 (en) * 2006-03-27 2009-05-26 Yamaha Corporation Electronic musical apparatus for training in timing correctly
JP4467601B2 (ja) * 2007-05-08 2010-05-26 ソニー株式会社 ビート強調装置、音声出力装置、電子機器、およびビート出力方法
JP5162963B2 (ja) * 2007-05-24 2013-03-13 ヤマハ株式会社 即興演奏支援機能付き電子鍵盤楽器及び即興演奏支援プログラム
JP5983573B2 (ja) * 2013-09-20 2016-08-31 カシオ計算機株式会社 演奏練習装置、方法、およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5828794A (ja) * 1981-08-14 1983-02-19 ヤマハ株式会社 電子楽器の音声指示装置
JPS60177396A (ja) * 1984-02-24 1985-09-11 ヤマハ株式会社 楽譜表示装置
JPH06301333A (ja) * 1994-04-11 1994-10-28 Casio Comput Co Ltd 演奏教習装置
JPH10187022A (ja) * 1996-10-18 1998-07-14 Yamaha Corp 音楽教習システム、音楽教習方法、及び同方法を実現するためのプログラムを記録した記録媒体
JP2001100751A (ja) * 1999-09-29 2001-04-13 Kawai Musical Instr Mfg Co Ltd 鍵盤タッチトレーニング装置
JP2004118165A (ja) * 2002-09-30 2004-04-15 Casio Comput Co Ltd 手形表示装置、演奏案内装置、手形表示プログラム、及び演奏案内プログラム
JP2006065186A (ja) * 2004-08-30 2006-03-09 Kawai Musical Instr Mfg Co Ltd テンポ情報出力装置、テンポ情報出力方法及びテンポ情報出力のためのコンピュータプログラム、タッチ情報出力装置、タッチ情報出力方法及びタッチ情報出力のためのコンピュータプログラム
JP2006276333A (ja) * 2005-03-29 2006-10-12 Yamaha Corp 電子楽器及びベロシティ表示プログラム
JP2007264059A (ja) * 2006-03-27 2007-10-11 Yamaha Corp 電子楽器

Also Published As

Publication number Publication date
US10629090B2 (en) 2020-04-21
CN109791757A (zh) 2019-05-21
US20190213906A1 (en) 2019-07-11
JP2018049125A (ja) 2018-03-29
JP6720797B2 (ja) 2020-07-08
CN109791757B (zh) 2023-06-16

Similar Documents

Publication Publication Date Title
WO2018056311A1 (ja) 演奏教習装置及び方法
JP6724879B2 (ja) 再生制御方法、再生制御装置およびプログラム
JP2008276187A (ja) 演奏処理装置及び演奏処理プログラム
US10726821B2 (en) Performance assistance apparatus and method
US20050257667A1 (en) Apparatus and computer program for practicing musical instrument
WO2018056310A1 (ja) 演奏教習装置及び方法
JP4038836B2 (ja) カラオケ装置
JP4646140B2 (ja) 練習機能付き電子楽器
JP2007334202A (ja) カラオケ装置
JP6638673B2 (ja) 教習装置、教習プログラムおよび教習方法
JP2008233558A (ja) 電子楽器及びプログラム
JP5338101B2 (ja) 電子音楽装置及び演奏処理プログラム
JP4743615B2 (ja) 練習機能付き電子楽器
JP2007072387A (ja) 演奏補助装置及びプログラム
JPH1165579A (ja) 歌唱練習機能付きカラオケ装置
JP6427439B2 (ja) カラオケ装置
JP6427447B2 (ja) カラオケ装置
JP2017227786A (ja) 演奏指示装置、演奏指示プログラム、および演奏指示方法
JP2008233614A (ja) 小節番号表示装置、小節番号表示方法及び小節番号表示プログラム
JP4198645B2 (ja) カラオケ装置用の電子打楽器装置
JP2007236824A (ja) ゲーム機
JP2009204822A (ja) 電子鍵盤楽器
JP2004240257A (ja) 電子楽器
JP2009169011A (ja) 演奏音推移報知装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17853080

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17853080

Country of ref document: EP

Kind code of ref document: A1