WO2016042653A1 - 音楽学習支援装置及び楽器 - Google Patents

音楽学習支援装置及び楽器 Download PDF

Info

Publication number
WO2016042653A1
WO2016042653A1 PCT/JP2014/074802 JP2014074802W WO2016042653A1 WO 2016042653 A1 WO2016042653 A1 WO 2016042653A1 JP 2014074802 W JP2014074802 W JP 2014074802W WO 2016042653 A1 WO2016042653 A1 WO 2016042653A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
frequency
chord
key
scale
Prior art date
Application number
PCT/JP2014/074802
Other languages
English (en)
French (fr)
Inventor
公洋 貞國
Original Assignee
有限会社ハーモウェル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 有限会社ハーモウェル filed Critical 有限会社ハーモウェル
Priority to PCT/JP2014/074802 priority Critical patent/WO2016042653A1/ja
Publication of WO2016042653A1 publication Critical patent/WO2016042653A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/04Transposing; Transcribing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments

Definitions

  • the present invention relates to a technique for supporting music learning.
  • Patent Document 1 proposes a music learning support device that enables effective learning about reading music even for those who are not familiar with musical scores.
  • the proposed device performs musical score display and performance data (MIDI data) conversion based on the symbol data of various musical symbols and the position coordinate data on the musical score, and generates floor name sound data from the converted performance data.
  • the musical sound corresponding to the floor name sound data is generated.
  • a floor name sound is generated with an accurate pitch according to the displayed musical score.
  • “Family Sound” is a melody used in general singing, “Do”, “Le”, “Mi”, “Fa”, “So”, “La”, “Sh”, “ It is defined as the pronunciation when singing with the pronunciation of "do”.
  • Patent Document 2 an electronic musical instrument having a chord name learning function is proposed to support chord learning.
  • the electronic musical instrument displays a list of chord names on the display screen of the display device.
  • the electronic musical instrument emits a sound from a speaker how to read a chord name arbitrarily selected from the list, and after that sound, outputs a distributed chord of the selected chord as a musical tone, Play the chords simultaneously with a musical tone.
  • the user can integrally check how to read the chord name and the sound of the chord.
  • the performance ability using “relative pitch” can be improved.
  • the ability to select a sound suitable for the music being played is enhanced, and the improvisation performance is improved.
  • the ability to create creative skills using “relative pitch” can be improved even in lessons to improve creative skills.
  • the ability to select a sound suitable for the music being created is enhanced and the creative ability is improved.
  • “relative pitch” means the ability to identify the pitch of the sound based on the relative pitch with the reference sound (blunt sound and musical sound).
  • the name of the sound includes “floor name” that defines the reference sound as “do”, and “frequency” that defines the pitch that matches the reference sound as “completely 1 degree”.
  • the sound that is the starting point of the scale (scale) is called the main sound
  • the sound that is the starting point of the chord (chord) is called the root sound.
  • the term “reference sound” is used as a term that represents both the main sound and the root sound. Is used.
  • Absolute pitch is the ability to recognize a pitch name by listening to a single tone without comparing it with other sounds.
  • Relative pitch is an ability different from absolute pitch in that it focuses on the interval (pitch) from the reference sound. Therefore, according to the relative pitch, even when a certain melody or harmony is transposed to a different key, it is recognized as the same floor name and frequency. This is synonymous with recognizing a certain melody and harmony based on whether or not they have the same structure, and is a music analysis itself. In order to improve improvisational performance and creative ability, reading skills with the ability to analyze music, reading ability of chord symbols, ability to select scale, etc.
  • relative pitch is a pitch that is easy to wear even for elderly people compared to absolute pitch, and using relative pitch is effective for learners of a wide range of ages.
  • relative pitch training is very effective in improving improvisational performance and creative ability.
  • the relative pitch should be played with an instrument and visually, auditory, and somatosensory. It is important to learn by linking to.
  • the idea of linking relative pitch with how to play with a musical instrument is not taken at all.
  • the present invention has been made in view of such circumstances, and provides a technology that supports integrated training of relative pitch and performance.
  • the first aspect relates to a music learning support method executed by a computer.
  • the music learning support method according to the first aspect detects a user operation on each of a plurality of performance operators, and based on the selected reference sound (the root sound of the chord or the main sound of the scale), each frequency or each floor name Changing the assignment to the plurality of performance operators, and outputting a sound that reads the frequency or the floor name assigned to the operated performance operator when the user operation is detected.
  • the second aspect relates to a music learning support device.
  • the music learning support device is based on an operation detection unit that detects a user operation on each of the plurality of performance operators and a selected reference sound (the root sound of the chord or the main sound of the scale).
  • An assigning unit for changing the assignment of the frequency or the name of each floor to the plurality of performance operators, and a voice for reading the frequency or the name assigned to the operated performance operator when the user operation is detected
  • An output sound processing unit for outputting.
  • Another aspect of the present invention may be a program that causes at least one computer to execute the method according to the first aspect, or a computer-readable recording medium that records such a program. Also good.
  • This recording medium includes a non-transitory tangible medium.
  • the music learning support apparatus according to the second aspect may be a musical instrument having a music learning support function.
  • FIG. 1st embodiment It is a figure which shows notionally the hardware structural example of the music learning assistance apparatus (support apparatus) in 1st embodiment. It is a flowchart which shows the operation example of the music learning assistance apparatus (support apparatus) in 1st embodiment. It is a figure which shows the 1st example of a keyboard screen. It is a figure which shows the 2nd example of a keyboard screen. It is a figure which shows the 3rd example of a keyboard screen. It is a figure which shows the 4th example of a keyboard screen. It is a figure which shows notionally the process structural example of the music learning assistance apparatus (support apparatus) in 1st embodiment. It is a figure which shows notionally the hardware structural example in the electronic musical instrument in 2nd embodiment.
  • a music learning support device and a music learning support method according to the first embodiment will be described with reference to a plurality of drawings.
  • the music learning support device and the music learning support method may be abbreviated as a support device and a support method.
  • FIG. 1 is a diagram conceptually illustrating a hardware configuration example of a music learning support apparatus in the first embodiment.
  • the support device 1 in the first embodiment is a so-called computer such as a PC (Personal Computer), a mobile phone, a smartphone, or a tablet terminal.
  • the support device 1 includes a CPU (Central Processing Unit) 2, a memory 3, a display unit 4, a touch sensor 5, a communication unit 6, a speaker unit 7, and the like.
  • the CPU 2 is connected to other units via a communication line such as a bus.
  • the memory 3 is a RAM (Random Access Memory), a ROM (Read Only Memory), or an auxiliary storage device (such as a hard disk).
  • the display unit 4 includes a monitor such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display, and performs display processing.
  • the touch sensor 5 receives an operation input from the user by sensing an external contact.
  • the touch sensor 5 may be a sensor that can detect a proximity state from the outside even in a non-contact state.
  • the display unit 4 and the touch sensor 5 may be realized as a touch panel unit.
  • the support device 1 may have an input / output interface (not shown) connected to an input device such as a mouse or a keyboard together with the touch sensor 5 or instead of the touch sensor 5.
  • the communication unit 6 performs wireless communication or wired communication, and communicates with other computers via a communication network.
  • the communication network is a cellular phone line network, a Wi-Fi (Wireless Fidelity) line network, an Internet communication network, a dedicated line network, a LAN (Local Area Network), or the like.
  • the speaker unit 7 is a sound output device.
  • the support device 1 may have hardware elements not shown in FIG. 1 such as a vibration sensor, an acceleration sensor, an imaging unit, a microphone unit, and the like.
  • the support device 1 may be a general-purpose computer or a dedicated computer.
  • the hardware configuration of the support device 1 in the present embodiment is not limited.
  • FIG. 2 is a flowchart showing an operation example of the support device 1 in the first embodiment.
  • the support method in the first embodiment is executed by at least one computer such as the support apparatus 1.
  • the CPU 2 executes a program (music learning support application) stored in the memory 3, whereby each processing step shown in FIG. 2 is executed.
  • a keyboard is used for music learning. Therefore, the music learning support application is also called an a cappella keyboard. In the first embodiment, each key on the keyboard corresponds to a performance operator.
  • the support apparatus 1 acquires setting information.
  • the setting information is held by the support device 1.
  • the setting information includes setting information regarding display, setting information regarding output sound, and the like.
  • the support device 1 outputs setting information on whether or not to display the frequency and the floor name, a sound that reads out the frequency, or a scatter sound such as “Uh-”, “Lo”, etc. ) Is acquired.
  • the support device 1 acquires information on the selected reference sound (S22).
  • the reference sound information selected and held at the time of the previous execution may be acquired, or the reference sound information determined as a default may be acquired.
  • the support apparatus 1 assigns the frequency and the floor name corresponding to the reference sound to the keyboard based on the reference sound information acquired in (S22).
  • each performance operator is each key of the keyboard displayed on the monitor included in the display unit 4 of the support apparatus 1.
  • the support device 1 determines the frequency and the floor name assigned to each key of the keyboard, and holds allocation information indicating the correspondence between the key, the frequency, and the floor name.
  • the allocation information includes, for each key of the keyboard, a correspondence relationship between information indicating the key, frequency identification information, and floor name identification information.
  • a unique ID may be used for the frequency identification information and the floor name identification information, or a frequency notation and a floor name notation may be used.
  • the support apparatus 1 may hold only the correspondence between each key and each frequency as allocation information. Only the correspondence between each ID that can identify a pair and each key may be held as allocation information. In this case, the support apparatus 1 separately holds a correspondence relationship between the frequency and the floor name, or a correspondence relationship between the ID, the frequency, and the floor name.
  • the support device 1 displays the keyboard screen on the basis of the setting information acquired in (S21), the reference sound information acquired in (S22), and the allocation information determined in (S23). 4 is displayed on the monitor.
  • the keyboard screen includes at least an image area (keyboard area) simulating a keyboard for playing by the user.
  • each key of the pseudo keyboard needs to have a size that can be operated by the user's finger. .
  • the size of the monitor of the display unit 4 is limited. From such a viewpoint, the key arrangement and the number of keys of the pseudo keyboard displayed in the keyboard area are determined. Thus, in this embodiment, the ease of playing the pseudo keyboard is improved.
  • the support apparatus 1 can superimpose and display the frequency and floor name on each key of the keyboard based on the setting information and the allocation information.
  • the allocation information indicates the correspondence between the information indicating the key (key) and the frequency ID and the floor name ID for each key (key) of the keyboard
  • the support device 1 determines the frequency ID and There are tables associated with frequency notations and tables associated with floor name IDs and floor name notations, and frequency and floor name notations are extracted from each table.
  • the support device 1 may display only the frequencies represented by the numbers 1 to 7 among all the frequencies assigned to each key. In this way, it is possible to make the keyboard easier to see than to display all the frequencies, and to prevent the user from giving a difficult impression.
  • the frequency display is dense on the keyboard, and each key may be difficult to see. If only numbers without flat ( ⁇ ) or sharp (#) are displayed, it is possible to give the beginners a sense of security and simplicity, which also lowers the training hurdles for the beginners. However, numbers with a flat ( ⁇ ) or sharp (#) are displayed as in scale types other than the major scale (major scale) (for example, corresponding to a natural minor scale (natural minor scale)).
  • the support apparatus 1 may display only one of the frequency and the name of the floor, and the support apparatus 1 may display the setting information and the selection in addition to the keyboard area of the keyboard screen. An area for presenting information on the reference sound being recorded may be included.
  • FIG. 3 is a diagram showing a first example of a keyboard screen.
  • the keyboard screen includes a reference sound selection area MP, a sound setting area SP1, and a display setting area SP2 in addition to the keyboard area BP.
  • the reference sound selection area MP is an image area for allowing the user to select a reference sound, and displays a note name in English.
  • one sound such as F sharp and G flat is displayed so as to be individually selectable as a reference sound with different pitch names.
  • the note name selected as the reference sound is colored.
  • “C” is selected as the reference sound.
  • the sound setting area SP1 is an image area for allowing the user to set whether the sound that reads out the frequency is the output sound or the sound “Woo” is the output sound.
  • the voice for reading the frequency (displayed as “135”) is selected.
  • the display setting area SP2 is an image area for allowing the user to select whether to display the frequency and the floor name. In the example of FIG. 3, display necessity (indicated as “ON”) is selected.
  • the frequency (1 to 7) and the floor name (Do, Re, Mi, Fa, So, La, Ti) are superimposed and displayed on each key of the keyboard area BP.
  • the assignment of each key of the keyboard area BP to the frequency and the floor name is determined in (S23).
  • the support device 1 detects a user operation on the keyboard screen.
  • the support device 1 detects a user operation on the keyboard screen displayed on the monitor of the display unit 4 based on contact information or proximity information sent from the touch sensor 5.
  • the support device 1 detects a performance operation, a reference sound change operation, a setting information change operation, and the like on the keyboard area on the keyboard screen.
  • the performance operation is, for example, an operation of tapping a display area of any one or a plurality of keys on the keyboard.
  • the reference sound changing operation is an operation of tapping an area for displaying any one note name in the reference sound selection area MP.
  • the setting information changing operation is an operation of tapping an area for displaying desired setting contents in the audio setting area SP1 or the display setting area SP2.
  • the content of the specific user operation detected by the support apparatus 1 is not limited.
  • the support device 1 determines the content of the user operation detected in (S25). This determination is made based on the position where the user operation is detected on the keyboard screen. When the user operation detected in (S25) is the end operation of the application (S26; YES), the support apparatus 1 ends the application (a cappella keyboard).
  • the support apparatus 1 is a setting information change operation (S27; “setting change”), and the support apparatus 1 has been changed. Based on the setting information, the displayed keyboard screen is updated (S24).
  • the detected user operation is an operation of changing the display of the frequency and the floor name from necessary to not necessary, the support apparatus 1 erases the frequency and the floor name superimposed and displayed on each key of the keyboard.
  • FIG. 4 is a diagram showing a second example of the keyboard screen.
  • the display of the frequency and the floor name is changed from the necessity to the necessity by the user operation on the voice setting area SP1 and the display setting area SP2, and the voice “Uh ⁇ ” is read from the voice reading the frequency. Has been changed. Due to the setting relating to the display setting area SP2, the frequency and the name of the floor displayed superimposed on each key of the keyboard are deleted.
  • the support apparatus 1 changes the frequency and floor name already assigned to the keyboard, and after the change A frequency and a floor name based on the reference sound are assigned to each key of the keyboard (S23).
  • the support device 1 updates the keyboard screen based on the change of the reference sound (S24). By this update, the information of the reference sound after the change is displayed in the display setting area, and the frequency and the position of the floor name displayed superimposed on each key of the keyboard in accordance with the reassignment in (S23). Updated.
  • FIG. 5 shows a third example of the keyboard screen.
  • the reference sound is changed to “D”.
  • each frequency and each floor name are displayed superimposed on a key different from FIG.
  • the assignment of the frequency and the floor name to the keyboard is changed based on the changed reference sound.
  • the support apparatus 1 shifts the key arrangement of the pseudo keyboard displayed in the keyboard area BP so that the keys on the keyboard are displayed as one octave continuous up to the reference sound on the octave. That is, the key to which the frequency and the floor name are assigned in (S23) is not limited to the displayed key.
  • FIG. 6 is a diagram showing a fourth example of the keyboard screen.
  • the reference sound is changed to “F”
  • the key arrangement displayed in the keyboard area BP is also changed from that shown in FIGS. Specifically, the displayed key group is shifted to the right in the drawing.
  • the keys on the keyboard can be displayed as one octave continuous to the reference sound on the octave even in the key arrangement shown in FIGS. In this way, the displayed key arrangement may be shifted before the keys on the keyboard are no longer displayed as one octave continuous to the reference sound on the octave.
  • the support apparatus 1 acquires sound data corresponding to the operated key (S28). Specifically, the support device 1 specifies the key that is the target of the performance operation detected in (S25), and is assigned to the specified key based on the assignment information determined in (S23). Specify the frequency. The support apparatus 1 acquires voice data that reads out the specified frequency. For each frequency, the support device 1 refers to a database in which the frequency identification information and the voice data that reads out the frequency are associated with each other and stores the frequency information from the database based on the identified frequency identification information. Voice data that reads out the frequency can be extracted.
  • the voice that reads the frequency is a voice that is read in English with each number from 1 to 7 and the frequency represented by adding a flat ( ⁇ ) or a sharp (#) to the number.
  • the voice that reads the frequency is “One”, “Three”, “Flat Two”, “Sharp Five”, and the like.
  • the frequency may be read out in Japanese or another language.
  • the voice that reads out the frequency has a pitch (pitch) corresponding to the operated key. This is because the user can audibly acquire the frequency.
  • the storage unit for storing a plurality of audio data including the audio read out at the sound pitch (pitch) corresponding to each key is the support device 1, another computer, or portable recording Provided on the medium.
  • the support device 1 extracts corresponding sound data from the storage unit based on the information on the operated key and the information on the frequency assigned to the key.
  • the support apparatus 1 uses the scatter sound having the pitch corresponding to the operated key. Get the data.
  • the support apparatus 1 may acquire voice data that reads out the frequency and instrument sound data of the operated key as sound data corresponding to the operated key.
  • the support device 1 may further acquire the data of the selected reference sound, or may further acquire the data of the reference sound and the data of the fifth sound (genus sound).
  • a musical instrument sound may be used as the reference sound and the fifth sound.
  • the support apparatus 1 outputs a sound from the speaker unit 7 based on the sound data acquired in (S28). For example, the support apparatus 1 outputs a sound that reads out the frequency assigned to the operated key from the speaker unit 7. At this time, the support apparatus 1 can superimpose the musical instrument sound of the operated key on the voice and output it from the speaker unit 7.
  • the support device 1 can also output from the speaker unit 7 a voice that reads out the frequency and has a pitch (pitch) corresponding to the operated key.
  • the support device 1 When the reference sound data is acquired together with the sound data in (S28), the support device 1 superimposes the sound that reads the frequency assigned to the operated key with the selected reference sound, Output from the speaker unit 7. In addition, when the fifth sound data is further acquired in (S28), the support device 1 superimposes the sound on the reference sound and the fifth sound and outputs the sound from the speaker unit 7.
  • speech means voice
  • sound means any sound including voice
  • sound and sound are used properly.
  • FIG. 2 shows a plurality of processing steps in order, but the processing steps executed in the first embodiment and the execution order thereof are not limited to the example of FIG.
  • the execution order of (S21) and (S22) may be reversed, and (S21) and (S22) may be executed simultaneously. Further, when the allocation information is already held, (S23) may not be executed.
  • FIG. 7 is a diagram conceptually illustrating a processing configuration example of the support device 1 in the first embodiment.
  • the support device 1 includes an operation detection unit 11, an allocation unit 12, an output sound processing unit 13, a display processing unit 14, a sound storage unit 15, and the like.
  • Each of these processing units is realized, for example, by executing a program stored in the memory 3 by the CPU 2.
  • the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the communication unit 6 and stored in the memory 3.
  • the support device 1 can execute the support method shown in FIG. 2 using each processing unit shown in FIG.
  • the operation detection unit 11 executes (S25), (S26), and (S27).
  • the assigning unit 12 executes (S22) and (S23).
  • the output sound processing unit 13 executes (S21), (S28), and (S29).
  • the display processing unit 14 executes (S21), (S22), and (S24).
  • the sound storage unit 15 stores a plurality of sound data including a sound read out each frequency.
  • the sound storage unit 15 stores each voice data included in the plurality of sound data in association with the frequency or an ID for identifying the frequency.
  • the sound storage unit 15 stores a plurality of instrument sound data and a plurality of scat sound data corresponding to each key as the sound data.
  • the sound storage unit 15 performs a pitch (pitch) corresponding to each key for each frequency.
  • a plurality of sound data including the sound whose frequency is read out is stored.
  • the support apparatus 1 may not have the sound storage unit 15.
  • the output sound processing unit 13 may acquire sound data by accessing another computer or a portable recording medium having the sound storage unit 15 via the communication unit 6.
  • a keyboard screen including a keyboard image having a size and a key arrangement in which each key (key) can be operated with a user's finger is displayed on the monitor of the support apparatus 1.
  • the user can select the reference sound by operating the reference sound selection area included in the keyboard screen.
  • each frequency and each floor name are assigned to each key of the keyboard based on the reference sound selected by the user, and are assigned to the operated key by the user's operation of the key of the keyboard.
  • a sound that reads out the frequency at the pitch (pitch) is output.
  • the user can recognize the frequency assigned to the key pressed by the user by pressing the key of the keyboard and listening to the sound output in response to the operation.
  • the correspondence between the frequency and the floor name and each key changes according to the reference sound.
  • the user can audibly grasp the frequency and the layout of the floor name corresponding to the selected reference sound.
  • the user can play a keyboard by superimposing the voice reading the frequency and the instrument sound of the operated key, or by giving the voice a pitch corresponding to the operated key. It is possible to give a feeling of actually playing the instrument, that is, a performance feeling. Thereby, while being able to train horrin, a user can grasp
  • the present embodiment it is also possible to superimpose and output the voice that reads the frequency at the pitch (pitch) of the sound corresponding to the operated key and the selected reference sound.
  • the user can be made to feel the sense of distance between the sound of the operated key and the reference sound while recognizing the frequency assigned to the operated key. That is, according to this embodiment, the user can develop a relative pitch through a performance of playing the keyboard.
  • the sound, the reference sound, and the fifth sound can be superimposed and output. According to this, the user can feel the reference sound more strongly due to the auditory mechanism. Therefore, the user can more easily feel the pitch of the operated key. Even when the reference sound or the fifth sound is not superimposed on the sound, reading the frequency makes it easy to recognize the relationship with the reference sound, so that the relative pitch can be trained.
  • the frequency is not an academic term such as complete once, long twice, short double, etc., but is represented by numbers or a combination of numbers and sharp or flat. As described above, this not only enables effective music learning and training, but also lowers the hurdle of training for those with little music knowledge, such as beginners, and has a wide range of age groups and levels. It becomes easy to be used by a person. Furthermore, continuity of music learning and training can be improved.
  • FIG. 8 is a diagram conceptually illustrating a hardware configuration example of the electronic musical instrument in the second embodiment.
  • the electronic musical instrument 20 in the second embodiment includes a CPU 21, a memory 22, an operation panel 23, a touch sensor 24, a keyboard 25, a speaker unit 26, and the like.
  • the CPU 21 is connected to other units via a communication line such as a bus.
  • the memory 22 is a RAM or a ROM.
  • the speaker unit 26 is a sound system including a speaker, an amplifier, and the like.
  • the operation panel 23 is a unit that realizes a user interface.
  • the operation panel 23 can include slide switches, dial switches, various switches such as push buttons, a touch panel, a monitor, a light emitting element, and the like.
  • a member included in the operation panel 23 such as a switch or a touch panel and operated by the user is referred to as a user interface (UI) operator, and is included in the operation panel 23 such as a monitor or a light emitting element.
  • UI user interface
  • the member that presents is denoted as a presentation member.
  • the operation panel 23 has at least a UI operation element that allows the user to select a reference sound and a presentation member that indicates what the selected reference sound is.
  • the operation panel 23 may have a member that realizes another user interface.
  • the operation panel 23 can include a switch for switching ON / OFF of the music learning support function, a monitor that displays the contents of setting information of the music learning support function, and the like.
  • the touch sensor 24 receives an operation input from the user by detecting a contact from the outside.
  • the touch sensor 24 may be a sensor that can detect a proximity state from the outside even in a non-contact state.
  • the touch sensor 24 receives operation input from the user for the operation panel 23 and the keyboard 25. Specifically, the touch sensor 24 detects that each key (key) of the keyboard 25 is pressed.
  • the touch sensor 24 detects a user operation on a switch or a touch panel included in the operation panel 23.
  • the electronic musical instrument 20 may have hardware elements not shown in FIG.
  • the electronic musical instrument 20 may include a communication unit that performs wireless communication or wired communication, an interface unit that exchanges data with a portable recording medium, and the like.
  • the hardware configuration of the electronic musical instrument 20 in the present embodiment is not limited.
  • FIG. 9 is a flowchart showing an operation example of the electronic musical instrument 20 in the second embodiment.
  • the support method in the second embodiment is executed by the electronic musical instrument 20.
  • the CPU 21 executes a program stored in the memory 22, whereby each processing step shown in FIG. 9 is executed.
  • each key on the keyboard corresponds to a performance operator.
  • the electronic musical instrument 20 starts operating when a power switch (not shown) is turned on, and ends operating when the power switch is turned off, as in a normal electronic device. In FIG. 9, operations associated with the operation of the power switch are omitted.
  • the operation shown in FIG. 9 is executed when the power switch of the electronic musical instrument 20 is turned on and when the music learning support function is turned on.
  • the ON state of the music learning support function may be set with one dedicated UI operator, or may be set with a combination of states of a plurality of UI operators.
  • the electronic musical instrument 20 acquires setting information.
  • the electronic musical instrument 20 can acquire the state of the UI operator included in the operation panel 23 from the touch sensor 24 as setting information.
  • the electronic musical instrument 20 can also acquire the setting information from a storage unit that stores the state of the UI operator detected by the touch sensor 24. For example, the electronic musical instrument 20 acquires setting information regarding whether or not to output a voice that reads out the frequency.
  • the electronic musical instrument 20 acquires information on the selected reference sound.
  • the reference sound information acquisition method is the same as the setting information acquisition method described above.
  • the electronic musical instrument 20 assigns the frequency and the floor name corresponding to the reference sound to the keyboard based on the reference sound information acquired in (S92).
  • the specific content of (S93) is the same as (S23) described above.
  • the electronic musical instrument 20 detects a user operation.
  • the electronic musical instrument 20 detects a user operation based on information sent from the touch sensor 24.
  • the electronic musical instrument 20 specifies the content of the user operation detected in (S94). Based on the information sent from the touch sensor 24, the electronic musical instrument 20 specifies whether the user operation is on the operation panel 23 or the keyboard 25. Furthermore, the electronic musical instrument 20 specifies which UI operator on the operation panel 23 has been operated, and the state of the operated UI operator. Further, the electronic musical instrument 20 specifies the key (key) on which the keyboard 25 is operated.
  • the electronic musical instrument 20 updates the setting information acquired in (S91) based on the state of the UI operator when an operation on the UI operator for changing the setting is detected (S95; “setting change”). (S96). For example, when the state of the UI operator is changed from a state of outputting a voice reading out the frequency to a state of not outputting, the electronic musical instrument 20 reflects the state in the setting information.
  • the electronic musical instrument 20 changes the frequency and floor name already assigned to the keyboard, The frequency and floor name based on the reference sound are assigned to each key of the keyboard (S93).
  • the electronic musical instrument 20 acquires sound data corresponding to the operated key when an operation on the key of the keyboard 25 is detected (S95; “performance operation”) (S97).
  • the setting information is set to output a sound for reading out the frequency
  • the electronic musical instrument 20 specifies the frequency assigned to the operated key based on the allocation information determined in (S93), and specifies Acquire audio data that reads out the specified frequency.
  • the electronic musical instrument 20 may acquire instrument sound data corresponding to the operated key. Similar to the first embodiment, the electronic musical instrument 20 can acquire other sound data similar to that in the first embodiment, in addition to voice data that reads out the frequency.
  • (S98) the electronic musical instrument 20 outputs a sound from the speaker unit 26 based on the sound data acquired in (S97).
  • the specific content of (S98) is the same as (S29) described above.
  • FIG. 9 a plurality of processing steps are shown in order, but the processing steps executed in the second embodiment and their execution order are not limited to the example of FIG.
  • the execution order of (S91) and (S92) may be reversed, and (S91) and (S92) may be executed simultaneously. If the allocation information is already held, (S93) may not be executed.
  • FIG. 10 is a diagram conceptually illustrating a processing configuration example of the electronic musical instrument 20 in the second embodiment.
  • the electronic musical instrument 20 includes an operation detection unit 31, an allocation unit 32, an output sound processing unit 33, a sound storage unit 34, and the like. Each of these processing units is realized, for example, by executing a program stored in the memory 22 by the CPU 21.
  • the program is transmitted from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network, or a communication unit (not shown) or another interface unit (not shown).
  • the electronic musical instrument 20 can be installed via The installed program is stored in the memory 22.
  • the electronic musical instrument 20 can execute the support method shown in FIG. 9 by using each processing unit shown in FIG.
  • the operation detection unit 31 executes (S94), (S95), and (S96)
  • the allocation unit 32 executes (S92) and (S93)
  • the output sound processing unit 33 (S91). , (S97) and (S98) are executed.
  • the sound storage unit 34 stores a plurality of sound data including instrument sounds that do not depend on the music learning support function and sounds that are read out each frequency.
  • the sound storage unit 34 stores each sound data included in the plurality of sound data in association with the frequency or an ID for identifying the frequency. Furthermore, the sound storage unit 34 can also store a plurality of scatter sound data as the sound data.
  • the sound storage unit 34 When a reading voice having a pitch (pitch) corresponding to the operated key is output, the sound storage unit 34, for each frequency, plays a pitch (pitch) corresponding to each key. A plurality of sound data including the sound whose frequency is read out is stored.
  • each frequency is assigned to each key of the keyboard based on the reference sound selected by the user, and is operated by the key operation of the keyboard by the user.
  • a voice that reads the frequency assigned to the key is output. It is also possible to superimpose and output a voice having a pitch corresponding to the operated key and reading the frequency, and the selected reference sound. That is, also in the second embodiment, the same effect as in the first embodiment can be obtained.
  • the support apparatus 1 and the electronic musical instrument 20 may output a voice that reads the floor name instead of the voice that reads the frequency.
  • the support apparatus 1 and the electronic musical instrument 20 identify the floor name assigned to the operated key, and acquire voice data that reads the identified floor name.
  • the sound storage units 15 and 34 store a plurality of sound data including a sound that reads out each floor name.
  • the sound storage units 15 and 34 store each sound data in association with a floor name or an ID for identifying a frequency and a floor name.
  • the sound storage units 15 and 34 each have a pitch corresponding to each key.
  • a plurality of pieces of voice data including voices whose floor names are read out are stored. Whether to output a sound for reading the frequency or a sound for reading the floor name may be switched according to the setting information, or may be fixedly determined.
  • the voices that read out the floor names were read out in English as Do, Di, Ra, Re, Ri, Me, Mi, Fa, Fi, Se, So, Si, Le, La, Li, Te, Ti. It is a voice.
  • the floor name may be read out in Japanese, other languages, or a sounding name that cannot be specified in any language.
  • the support device 1, the electronic musical instrument 20, and the support method in the first and second embodiments described above are not limited to the use of a keyboard.
  • the support device 1, the electronic musical instrument 20, and the support method can obtain the same effect even if a fingerboard image such as a guitar is used.
  • each key of the keyboard 25 has display means, or when the electronic musical instrument 20 has display means associated with each key at a position close to each key of the keyboard 25, each key of the keyboard 25 Each frequency assigned to the key and each floor name can be displayed.
  • the electronic musical instrument 20 may display at least one of the frequency and the floor name assigned to each key on the display means of each key based on the assignment information determined in (S93).
  • a music learning support device support device
  • a music learning support method support method in the third embodiment
  • the support apparatus and support method in the third embodiment have a further training function for acquiring chords (chords), and use a keyboard as in the above-described embodiments.
  • each key on the keyboard corresponds to a performance operator.
  • the third embodiment is not limited to the use of the keyboard as in the above-described embodiments.
  • the third embodiment will be described focusing on the contents different from the above-described embodiments, and the same contents as those described above will be omitted as appropriate.
  • the hardware configuration of the support device 1 in the third embodiment is the same as the configuration of the first embodiment shown in FIG.
  • FIG. 11, FIG. 12A and FIG. 12B are flowcharts showing an operation example of the support apparatus 1 in the third embodiment.
  • the support method in the third embodiment is executed by at least one computer such as the support device 1.
  • the CPU 2 executes a program (music learning support application) stored in the memory 3, whereby each processing step shown in FIGS. 11, 12A, and 12B is executed.
  • the music learning support application provides training menus and time trial menus to users. That is, the support method in the third embodiment includes an auxiliary process, a training process, and a time trial process.
  • the support device 1 uses a main screen, which will be described later, as a user interface to support the continuation of the training of the code type and the constituent sound accumulation order set in the main screen and the execution of the time trial.
  • the code type indicates a code type such as a major code or a minor code.
  • the constituent sound accumulation order indicates the form of the constituent sound accumulation order such as the basic form, the first turning form, and the second turning form.
  • the support device 1 supports the training of the code type and the constituent sound accumulation order set on the main screen on which the user operation for starting the training is performed.
  • the time trial process the support device 1 supports the time trial of the chord type and the constituent sound accumulation order set on the main screen on which the user operation for starting the time trial is performed.
  • FIG. 11 mainly shows an auxiliary process of the support method in the third embodiment.
  • the support device 1 displays a main screen on the monitor of the display unit 4 (S111).
  • the main screen an arbitrary chord type and an arbitrary constituent sound accumulation order are set.
  • the chord type “major chord” and the constituent sound accumulation order “basic form” are set as the most basic chords.
  • FIG. 13 is a diagram showing an example of the main screen on the first day of startup.
  • the main screen in the example of FIG. 13 includes display areas TC and DP, operation areas MN1, MN2, PA, SM, RD, and the like.
  • the display area TC displays information on the chord type and the constituent sound accumulation order set on the main screen.
  • the display area TC in the example of FIG. 13 indicates that the constituent sound accumulation order “basic form” of the chord type “major chord” is selected.
  • the display area DP displays the number of days during training.
  • the operation area MN1 receives an operation for starting the training process.
  • the operation area MN2 receives an operation for starting the time trial process.
  • the operation area PA receives an operation for starting a gift application (predetermined application).
  • the operation area SM receives operations for displaying various setting screens.
  • the operation area RD accepts an operation for displaying a history of time trial results.
  • the support device 1 receives a user operation on the operation area MN2 after the training for the day is completed even once.
  • a user operation on the operation area PA is accepted only after the gift application is made executable as will be described later.
  • the support device 1 may operate as follows.
  • the support device 1 counts the number of times training has been completed in units of days, and executes a lesson completion event when the number of days in which training has been completed once or more reaches a predetermined number of days.
  • a predetermined image for example, a predetermined image (moving image) is displayed, and predetermined music is reproduced.
  • the support apparatus 1 sets a predetermined application (gift application) in an executable state. That is, the support apparatus 1 monitors that the training process is performed for a predetermined number of days, and provides a gift application as a reward to the user when the training process is performed for a predetermined number of days. By providing such a reward, motivation to continue training can be maintained.
  • the predetermined number of days is set to 20 days.
  • the predetermined number of days is preferably set empirically from the proficiency level of the code and the sustainability of the training.
  • the display area DP the number of days during training and a predetermined number of days (20 days) are displayed.
  • the support device 1 detects a user operation on the main screen displayed in (S111) (S112).
  • the support apparatus 1 determines whether or not the detected user operation is an operation for selecting an item (S113).
  • the item is an image displayed on the main screen after completion of the training process.
  • the displayed item can be regarded as a reward for completion of the training process, and can be operated anytime after the display.
  • the support apparatus 1 determines whether the user operation detected in (S112) is an operation for selecting an image indicating the item.
  • Assistance device 1 provides items to the user after completion of the daily training process.
  • the support device 1 provides different items for each day on which the training is completed until the number of days on which the training is completed reaches the predetermined number of days.
  • the item for each day has a two-stage display form of a completed state and a completed state, and is displayed on the main screen. Further, the support device 1 provides an item in units of 5 days in addition to an item in units of days. This item has only completed status and is displayed on the main screen. Since FIG. 13 is an example of the main screen on the first day of startup, no items are shown in FIG.
  • the item provision interval (5-day unit) is an example, and is not limited to such an interval.
  • the support device 1 displays a first image showing an item in the process of completion once a day on the monitor after the end of the training, and only after the day after the first date when the first image is displayed.
  • a user operation for the first image is accepted.
  • the support device 1 determines whether or not the selected item indicates an in-completion state (S114).
  • the support device 1 changes the image of the item to a completed image indicating the completed item (S115).
  • the support device 1 displays information added to the item on the monitor (S116).
  • the selected item does not indicate a completed state, that is, when the selected item indicates a completed state (S114; NO)
  • the support device 1 monitors information added to the item without changing the image. (S116).
  • the support device 1 stores the state (whether it is in the middle of completion or the completion state) and the added information or image for each provided item. For information added to the item, it is desirable to use information useful for maintaining training motivation and learning the code, such as maxims, celebrity quotes, and tips on how to remember.
  • FIG. 14 is a diagram showing an example of the main screen after the training on the first day.
  • an image not displayed in FIG. 13 is displayed.
  • the images include images GF1 and GF2 indicating items.
  • the image GF1 is an image showing an item in the middle of completion. By looking at the image of the item in the process of completion, the user expects that the item will be in the completed state, and can maintain motivation to start the application after the next day. Even if the user performs an operation of selecting the image GF1 on the main screen, the support device 1 does not accept this operation.
  • FIG. 14 also includes an image GF2 showing an item in units of 5 days.
  • FIG. 15 is a diagram showing a display example before starting the main screen on the second day of starting.
  • the support device 1 since the main screen is activated after the second day after the day (first day) when the image indicating the item in the middle of completion is first displayed, the support device 1 The user operation on the image of the item is accepted.
  • an arrow image indicating an image of an item in the middle of completion is displayed so that the user can easily notice, and the image is focused.
  • FIG. 16 is a diagram showing a display example before starting the main screen on the second day of starting.
  • the support apparatus 1 changes to an image of the item in the completion state as illustrated in an image GF1 illustrated in FIG. 16. Thereafter, when the user selects the image GF1 of the item, the support apparatus 1 displays the information image IP1 added to the item on the monitor as shown in FIG. In the example of FIG. 16, Picasso's quote is displayed.
  • FIG. 17 is a diagram illustrating a display example of information added to an item.
  • the support device 1 detects a user operation for selecting the item image GF2 displayed on the main screen, the support device 1 displays the information image IP2 as shown in FIG. 17 attached to the item on the monitor.
  • the support apparatus 1 determines whether or not the user operation detected in (S112) is an operation for selecting a gift application image (S113; NO, S117). In the example of FIG. 13, it is determined whether or not the detected user operation is a user selection operation on the operation area PA. If the user operation is an operation for selecting a gift application image (S117; YES), the support apparatus 1 determines whether the gift application is in an executable state (S118). If the gift application is in an executable state (S118; YES), the support apparatus 1 activates the gift application (S119). For example, the music learning support application (a cappella keyboard) in the first embodiment is activated as a gift application. On the other hand, when the gift application is not in an executable state (S118; NO), the support apparatus 1 does not activate the gift application.
  • the support apparatus 1 determines whether or not the user operation detected in (S112) is a main screen transition operation (S113; NO, S117; NO, S120). When the number of days for which training has been completed once or more has reached a predetermined number of times for the chord type and constituent sound accumulation order (contents of the display area TC in FIG. 13) to be trained, or in the time trial process When a predetermined result is recorded, a further main screen is provided. In the further main screen, a combination different from the chord type and the constituent sound accumulation order set in the original main screen is selected. For example, the chord type “major chord” and the constituent sound accumulation order “first turn type” are set on the further main screen. In providing a further main screen, the support device 1 provides each main screen with an image (such as an arrow button) that allows the main screen to be shifted.
  • an image such as an arrow button
  • the support apparatus 1 displays another main screen on the monitor (S111). Thereafter, a user operation on the displayed other main screen is detected (S112).
  • the support device 1 determines whether or not the user operation detected in (S112) is an operation for starting training (S113; NO, S117; NO, S120; NO, S121).
  • the support device 1 starts a training process of the code type and constituent sound accumulation order set in the main screen (transition to FIG. 12A).
  • the support apparatus 1 determines whether or not the user operation detected in (S112) is an operation for starting a time trial (S113; NO, S117; NO, S120; NO, S121; NO, S122).
  • the support apparatus 1 starts a time trial process for the code type and the constituent sound accumulation order set in the main screen (FIG. 12B). To).
  • the support device 1 does not start the time trial process when the training process has never been executed on that day, or when the number of executions of the time trial process exceeds a predetermined number (for example, three times). It can also be. In this way, it is possible to set restrictions on the execution conditions and the number of executions of the time trial process.
  • FIG. 11 shows a plurality of processing steps in order, but each step executed in the auxiliary step of the support method and its execution order are not limited to the example in FIG.
  • the order of determination of the content of the detected user operation (S113, S117, S120, S121, S122) can be changed.
  • a user operation indicating other contents may be detected.
  • FIG. 12A shows a training process of the support method in the third embodiment.
  • the support apparatus 1 When a user operation indicating the start of training is detected (S121 in FIG. 11; YES), the support apparatus 1 operates as illustrated in FIG. 12A.
  • the support device 1 sequentially selects root sounds.
  • the support device 1 has 12 different sounds (C, D flat (or C sharp), D, E flat (or D sharp), E, F (or E sharp), F sharp (or G flat), G, A flat (or G sharp), A, B flat (or A sharp), B (or C flat)) may be selected sequentially as root sounds, or synonyms (for example, F sharp and G flat) are individually selected. You may select it as the root note.
  • chords corresponding to the chord names specified by the selected root sounds in the chord type set on the main screen, and sequentially issues the chords (chords) that have been given to the user. Let them play. When twelve different sounds are selected as root sounds, twelve chords (chords) are set as questions. On the other hand, in the case where synonyms with different names are individually selected as root sounds, even if the same chord (chord) is used, there may be a chord that is repeatedly given using different chord names.
  • the support device 1 displays the keyboard screen on the monitor of the display unit 4 (S130).
  • the keyboard screen includes at least a keyboard area for displaying a pseudo keyboard as in the above-described embodiments.
  • FIG. 18 is a view showing a display example of a keyboard screen in the third embodiment.
  • the keyboard screen includes the same keyboard area BP as in the above-described embodiments.
  • the keyboard screen includes a target display area TC, a code name display area BS, an end operation area HB, and a hint operation area HD.
  • the target display area TC displays information on the chord type and the constituent sound accumulation order.
  • Information displayed on the TC indicates a code type and a constituent sound accumulation order set on the main screen on which a user operation indicating the start of training is performed. In the example of FIG. 18, it is shown that the constituent sound accumulation order “basic form” of the chord type “major chord” is selected.
  • the end operation area HB is an area for accepting a training end operation.
  • the support apparatus 1 detects a user operation on the end operation area HB, the support apparatus 1 ends the training process and redisplays the main screen.
  • the hint operation area HD is an area for receiving a hint screen display operation. When detecting the user operation on the hint operation area HD, the support device 1 displays a hint screen on the monitor.
  • the code symbol display area BS displays a plurality of different code symbols in a row.
  • chord symbols of major chords are displayed, and the English notation of root sounds is displayed in a line in the area BS.
  • chord symbols in which “m” is added to the English notation of the root note are displayed side by side in the area BS.
  • the code symbol of the code selected as the subject of question is displayed focused on the center of the area BS, and two code symbols of the code already given are displayed on the left side from the center of the area BS.
  • the code symbol of the code is displayed on the right side from the center.
  • the column of code symbols displayed in the code symbol display area BS is gradually shifted to the left side of the page with the code symbol of the code under question placed in the center.
  • the code name “F major code” is given.
  • the support apparatus 1 determines the order of questions in a predetermined number of code symbol groups (hereinafter also referred to as selection target code symbol groups) in the code type set on the main screen. If the synonyms are not distinguished, twelve chord symbols indicating chord groups each having the twelve sounds as root sounds are selected chord symbol groups. On the other hand, when differentiating homonyms, 13 or more predetermined numbers of chord symbols indicating chord groups each having the 12 sounds as roots are selected code chord symbols (symbols having different synonyms). (Including chords that are duplicated).
  • the support device 1 displays a code symbol string in which code symbols are arranged in the determined order of questions in the code symbol display area BS. In the example of FIG.
  • the support device 1 displays the code symbol of the code under question in the center, and displays a maximum of 6 code symbols in the code symbol string in the code symbol display area BS.
  • the number of code symbols displayed in the code symbol display area BS is not limited.
  • the order in which the chord symbols are presented is hereinafter also referred to as a selection candidate queue.
  • the support apparatus 1 selects chord symbols in order from the selection candidate queue, thereby giving a chord (chord) indicated by the selected chord symbol and allowing the user to play the chord.
  • the order of questions for each code symbol is not limited to the following example, and is arbitrary.
  • the support device 1 holds in advance information about the constituent sounds of each chord.
  • the selection target code symbol group is classified into each group in advance, and each group is given an order in advance.
  • the code symbol classification information and the order information assigned to each group are held in advance in the support apparatus 1.
  • the selection target chord symbol group is classified according to the usage pattern of white keys and black keys for playing the chords indicated by the chord symbols, and each group has a key usage pattern that is familiar to the user. It is desirable to order them so that they are in order.
  • the selection target code symbol group can be classified into the following four groups.
  • the first group consists of three chord symbols (C, F and G) that use only white keys.
  • the second group consists of chord symbols (D, E and A) of three chords played in a white key-black key-white key usage pattern.
  • the third group consists of three chord symbols (D ⁇ , E ⁇ and A ⁇ ) played in a black key-white key-black key usage pattern.
  • the fourth group consists of code symbols (F #, B ⁇ and B) of the other three codes.
  • the chord symbols (F #) and (G ⁇ ) are codes with the same name and are generally used at the same frequency. Is done. Therefore, the fourth group is formed from four code symbols (F #, B ⁇ , B, and G ⁇ ) indicating the other three codes.
  • the order of each group is given in the order from the first group to the fourth group.
  • the selection order of each code symbol in each group (the order in which the codes are presented) is arbitrarily determined.
  • the user can lower the training hurdle and support the continuation of the training. This is because, for beginners, white keys are more familiar than black keys, and it is possible to tackle chords that are familiar and easy to play.
  • the support apparatus 1 can also determine the order of the code symbols in each group so that they change from the previous training. Thereby, since the order of the code symbols to be given changes every time, training can be continued without getting bored.
  • the support apparatus 1 selects one code symbol positioned at the head of the selection candidate queue determined as described above as a question subject (S131).
  • the code symbol selected in (S131) is expressed as a code symbol under question
  • the code indicated by the code symbol is expressed as a code under question.
  • the support device 1 shifts the key arrangement of the pseudo keyboard displayed in the keyboard area BP in accordance with the code of the selected code symbol, and the code of the code symbol that has been presented. Display control is performed so that all the keys for playing are displayed. For example, the key arrangement of the pseudo keyboard displayed in the keyboard area BP is changed between when the “E major code” is given and when the “F major code” is given.
  • the support device 1 presents the code symbol selected in (S131) (S132). In the example of FIG. 18, the support device 1 focuses the English code “F” of the selected code symbol (code symbol) and displays it in the code symbol display area BS.
  • the support device 1 assigns the frequency and the floor name based on the root of the chord symbol selected in (S131) to the keyboard (S133). Specifically, the support device 1 determines the frequency and the floor name to be assigned to each key (key) of the keyboard based on the root of the chord symbol selected in (S131), and assigns the assignment information to the key. Hold.
  • the specific content of (S133) is the same as (S23) described above.
  • the support device 1 detects a user operation of pressing a key on the keyboard (S134).
  • the detection method of this user operation is as described in the first embodiment.
  • the support apparatus 1 determines whether or not the sound corresponding to the detected key pressed by the user operation is a constituent sound of the chord symbol code (chord in question) selected in (S131) ( S135). At this time, the support apparatus 1 performs the determination based on the allocation information determined in (S133) and the constituent sound information of each chord held in advance.
  • the support device 1 When the sound corresponding to the operated key is a constituent sound of the chord under question, the support device 1 reads the sound data that reads the frequency assigned to the key and the sound (instrument sound) data of the chord. Obtain (S136). Specifically, the support device 1 specifies the frequency assigned to the operated key based on the allocation information, and acquires voice data that reads out the specified frequency. In addition, the support apparatus 1 acquires voice data corresponding to the selected code (in question) from a storage unit that stores sound data for each code. On the other hand, when the sound corresponding to the operated key is not a constituent sound of the chord under question, the support device 1 does not acquire sound data of the chord under question and reads out the frequency assigned to the key. Only the data is acquired (S136). The details of the voice that reads out the frequency are as described in the first embodiment.
  • the sound of the chord under question is, for example, a performance sound of an instrument having a keyboard such as a piano.
  • the support device 1 outputs a sound from the speaker unit 7 based on the data acquired in (S136) (S137). Specifically, when the sound corresponding to the operated key is a constituent sound of a chord that is being questioned, the support device 1 reads a voice that reads the frequency assigned to the key and a chord (chord) ) Are superimposed and output from the speaker unit 7. When the sound corresponding to the operated key is not a constituent sound of the chord being asked, the support apparatus 1 outputs only the sound that reads out the frequency from the speaker unit 7. Thus, the support apparatus 1 switches the output sound according to the determination result in (S135). Further, as described in the first embodiment, the support device 1 can also output the voice that reads out the frequency in a state having a pitch corresponding to the operated key.
  • the support device 1 changes the display of the operated key according to the determination result in (S135) (S138). Specifically, when the sound corresponding to the operated key is a constituent sound of the chord under question, the support device 1 displays the frequency and floor name assigned to the operated key in the display area of the key. And is displayed on the monitor of the display unit 4. When the sound corresponding to the operated key is not a constituent sound of the chord being asked, the support apparatus 1 does not display the frequency and the floor name.
  • FIG. 19 is a diagram showing a display example of a keyboard screen in the third embodiment.
  • FIG. 19 illustrates a case where the code symbol “F” in the basic form of the major code is selected (questioned). Further, in FIG. 19, two keys to which “1 degree” and “3 degrees” are assigned are operated, and the frequency and the floor name are superimposed on the operated keys. In addition, the colors of the two operated keys are changed from the colors of the other keys.
  • the support device 1 determines success or failure of performance of the chord under question based on whether or not a plurality of keys corresponding to all constituent sounds of the chord under question have been operated simultaneously or successively ( S139).
  • a plurality of keys corresponding to all constituent sounds are operated continuously means that keys corresponding to sounds other than the constituent sounds are not operated in the middle, and all constituent sounds are supported. It means that multiple keys are operated.
  • the support apparatus 1 determines that the performance is successful when a plurality of keys corresponding to all the constituent sounds of the chord under question are operated simultaneously or continuously, and the keys corresponding to the sounds other than the constituent sounds are in the middle. If it is operated, it is determined that the performance has failed.
  • the support device 1 adds the number of failures related to the chord symbol in question (S140). In this way, the support device 1 holds the number of failures for each code symbol. Based on the number of failures for each chord symbol held, the support device 1 counts the number of performance failures for each group into which the chord symbols are classified (S141).
  • the support device 1 again places the chord symbol under question into the selection candidate queue (S142). .
  • the support device 1 re-enters the code symbol at the end of the group to which the code symbol in the question belongs in the selection candidate queue.
  • the re-input position of the code symbol to the selection candidate queue is arbitrary.
  • the support device 1 does not re-enter that chord symbol and next enters the selection candidate queue. It is determined whether or not there is a code symbol to be selected (to be set) (S143). Further, the support device 1 also makes a determination when it is determined that the performance of the chord under question is successful (S139; YES) (S143). If there is no code symbol to be selected next (S143; NO), the support device 1 ends the current training (END).
  • the support device 1 can also display the total number of failures and code information of code symbols to be noted on the monitor based on the number of failures for each code symbol held. In addition, the support device 1 can also display information on the code to be noted on the monitor at the start of the next training based on the number of failures held in the previous training.
  • the support device 1 has a code symbol to be selected next (to be given a question) in the selection candidate queue (S143; YES), or re-enters the selected code symbol into the selection candidate queue (S142). Then, the code symbol in the next order in the selection candidate queue is selected as a target to be next set (S131).
  • the support apparatus 1 executes (S132) and subsequent steps with respect to the newly selected code symbol.
  • FIG. 12A a plurality of processing steps are shown in order, but each step executed in the training step of the support method and its execution order are not limited to the example of FIG. 12A.
  • the execution order of (S132) and (S133) may be reversed, or they may be executed simultaneously.
  • (S138) may be executed before (S136), or may be executed simultaneously with (S136) or (S137).
  • FIG. 12B shows a time trial process of the support method in the third embodiment.
  • the support device 1 When a user operation for starting a time trial is detected (S122; YES), the support device 1 operates as illustrated in FIG. 12B. In this time trial process, the support device 1 measures the time for which all chord symbols in the selection target chord symbol group are successfully played.
  • steps having the same contents as in FIG. 12A are denoted by the same reference numerals as in FIG. 12A.
  • the order of the codes set in the selection candidate queue in the time trial process may be the same as or different from that in the training process. This is because the time trial process is provided for the user's arm trial and has a different purpose from the training process, and therefore it is not necessary to consider ease of familiarity.
  • the support device 1 displays the keyboard screen on the monitor (S130), it starts time measurement (S151). Thereafter, the support apparatus 1 executes (S131) to (S139) in the same manner as the training process.
  • the support device 1 adds the number of failures (S152). In the time trial process, the support device 1 may count only the total number of failures. The support device 1 may count the number of failures for each code symbol or each group as in the training process. In the time trial process, even if it is determined that the performance is unsuccessful (S139; NO), the support device 1 does not re-challenge the chord symbols until it is determined that the performance of the chord being tested is successful (S139; (YES), (S134) to (S139) are repeatedly executed. As a result, each time the performance fails, the time is delayed.
  • the support device 1 determines whether there is an unselected (unquestioned) chord symbol in the selection candidate queue (S153). When there is an unselected code symbol (S153; YES), the support device 1 selects one code symbol from among the unselected code symbols as a subject (S131). The support apparatus 1 subsequently executes (S131) to (S139) regarding the newly selected code symbol.
  • the support device 1 stops time measurement and records the measured time (S154).
  • the support device 1 holds the measured time for each day.
  • the support device 1 may hold only the fastest time on that day.
  • FIG. 12B a plurality of processing steps are shown in order, but each step executed in the time trial step of the support method and its execution order are not limited to the example in FIG. 12B.
  • (S151) may be executed before (S130) or may be executed simultaneously with (S130).
  • (S151) is executed between (S133) and (S134), and the time measurement is stopped between (S139) and (S153). Also good. In this way, the time is measured for each target code symbol. Therefore, in this case, (S154) records the time obtained by summing the times for each target code symbol.
  • FIG. 20 is a diagram showing a display example of a graph indicating the history of time trial results. For example, when the user operation for the operation area RD on the main screen shown in FIG. 13 is detected, the support apparatus 1 displays this graph on the monitor.
  • the time measured in the time trial process is indicated by a line graph
  • the number of executions of the training process is indicated by a bar graph. As shown in this example, the support apparatus 1 may hold the number of executions of the training process every day.
  • FIG. 21 is a diagram conceptually illustrating a processing configuration example of the support device 1 in the third embodiment.
  • the support device 1 further includes a determination unit 16 and a training processing unit 17 in addition to the configuration of the first embodiment.
  • the determination unit 16 and the training processing unit 17 are also realized in the same manner as other processing units.
  • the support apparatus 1 can execute the support method shown in FIGS. 11, 12A, and 12B by using the processing units shown in FIG.
  • the operation detection unit 11 executes (S112), (S113), (S117), (S118), (S120), (S121), (S122), (S134), and the like.
  • the allocation unit 12 executes (S133).
  • the output sound processing unit 13 executes (S136) and (S137).
  • the display processing unit 14 executes (S111), (S114), (S115), (S116), (S119), (S130), (S132), and (S138).
  • the determination unit 16 executes (S135) and (S139).
  • the training processing unit 17 executes (S131), (S140), (S141), (S142), (S143), (S151), (S152), (S153), and (S154). Moreover, the training processing part 17 can also count the frequency
  • the display processing unit 14 executes a lesson completion event when the number of days for which training has been completed is a predetermined number of days (for example, 20 days). The display processing unit 14 can also make the present application executable after the lesson completion event.
  • the sound storage unit 15 stores voice data read out each frequency and sound (instrument sound) data of each chord.
  • the sound storage unit 15 stores the voice data read out for each frequency in association with the frequency or an ID for identifying the frequency.
  • the sound storage unit 15 stores the sound data of each chord in association with an ID for identifying the chord.
  • the sound storage unit 15 reads out the voice at a pitch corresponding to each key for each frequency.
  • a plurality of audio data including are stored respectively.
  • the support apparatus 1 may not have the sound storage unit 15.
  • the output sound processing unit 13 may acquire sound data by accessing another computer or a portable recording medium having the sound storage unit 15 via the communication unit 6.
  • a training menu and a time trial menu are provided to the user.
  • a predetermined number of chord symbols are sequentially selected (questions), and the chords of the selected chord symbols are displayed on the pseudo keyboard displayed on the screen.
  • the assignment of the frequency and the floor name to each key (key) of the pseudo keyboard is changed based on the code of the selected code symbol.
  • the user While viewing the selected chord symbol presented on the screen, the user operates a key corresponding to the constituent sound of the chord symbol.
  • it is determined whether or not the sound corresponding to the key is a constituent sound of the chord of the selected chord symbol. If the sound is a constituent sound, it is assigned to the key.
  • the voice that reads the frequency and the sound of the chord are superimposed and output. If the sound is not a constituent sound, only the sound that reads the frequency assigned to the key is output.
  • the user can be aware of the frequency assigned to the key operated by himself (musically). Further, depending on whether or not the frequency reading voice is superimposed and output with the chord sound being asked, the user can immediately know whether or not the key operated by himself is the constituent sound of the chord being questioned. it can. Furthermore, by providing the frequency reading voice with a pitch corresponding to the operation key, the user can audibly recognize the frequency assigned to the key operated by the user. When this is superimposed on the chord sound, the user can confirm in relative sound how the key operated by the user will sound in the chord sound under question. Therefore, according to the third embodiment, the user can learn chords both in terms of music theory and auditorily while having an image of playing with an actual musical instrument, and can also develop the relative pitch itself.
  • the sound corresponding to the operated key is assigned to the operated key depending on whether or not the sound corresponding to the operated chord is a constituent sound of the chord being asked.
  • the display of the frequency and the floor name is switched. When the sound is a constituent sound, the frequency and the floor name are superimposed on the operated key, and when the sound is not a constituent sound, the frequency and the floor name are not displayed. This allows the user to immediately recognize whether or not the sound corresponding to the key that is visually operated is a constituent sound of the chord under question, while recognizing the frequency assigned to the operated key by voice. It can be grasped.
  • the success or failure of the performance of the chord is determined depending on whether or not keys corresponding to all the constituent sounds of the chord under question are operated simultaneously or successively. Chord symbols that are determined to have failed to be played are given again. Thereby, since the code symbols that are not good for the user are given a plurality of times, the code can be learned efficiently. Furthermore, when the number of performance failures is counted and the number of performance failures exceeds a predetermined number, even the chord symbols determined as performance failures are not re-issued. As a result, even if performance failures are repeated, all chord symbols are always given and training is completed, so the hurdle for training for beginners can be lowered. Furthermore, since the number of failures for each code symbol is held and the code information of the code symbol to be noted based on this is displayed, meaningful advice can be provided to each user.
  • the user can grasp the proficiency level of chords and improve the motivation of training.
  • various mechanisms are provided to improve the motivation of the user who performs the training and to allow the user to execute the training horr and continuously.
  • an item image in a completed state is displayed on the main screen once a day.
  • the item image in the completion state can be operated by the user by starting the main screen after the displayed next day.
  • the item image is changed to a completed state, and information added to the item screen is displayed.
  • the user's motivation to start the main screen on the next day and perform training can be improved, and the continuity of training can be improved.
  • the number of times training has been completed is counted in units of days, and when the number of days in which training has been completed reaches a predetermined number of days, a lesson completion event is executed and a predetermined application is made executable. . That is, a predetermined application (for example, a cappella keyboard) is provided to the user as a reward for completing the lesson. Thereby, the motivation to continue training for at least a predetermined number of days (for example, 20 days) can be given to the user. It is desirable that the predetermined number of days, which is the duration of this training, be determined empirically from the period required to acquire the code and the period during which it can be continued. By continuing the training for the predetermined number of days, the user can reflexively play the chord.
  • a predetermined application for example, a cappella keyboard
  • the user can be trained to enjoy chord performance in a fun and continuous manner, and the relationship between the sound corresponding to each key of the keyboard and the sound of the chord is aural and visual. Can be grasped. It is possible to cultivate “relative pitch” only by grasping chords by linking them with musical instruments and visual, auditory, and physical senses.
  • code acquisition is supported.
  • scale (musical scale) acquisition can be supported instead of the chord.
  • “chord type” is replaced with “scale type”
  • “root note” is replaced with “main note (starting tone of scale)”
  • “chord symbol” is replaced with “scale symbol”.
  • “Scale types” include major scales, natural minor scales, harmonic minor scales, melodic minor scales, church rotations, Ryukyu scales, folk scales, and convolution scales.
  • the support device 1 determines that the sound of the key (key) detected by the user operation is the scale of the selected scale symbol in a certain scale type (under questions) It is determined whether or not the sound is a constituent sound of the scale. In (S136) and (S137), when the sound corresponding to the operated key is a constituent sound of the scale under question, the support device 1 reads out the floor name assigned to the key, Superimpose and output at least one component sound of the middle scale. If the sound is not a constituent sound of the scale in question, the support device 1 outputs only the sound. It is desirable that the constituent sound of the scale in the question to be superimposed with the voice that reads the floor name is the main sound.
  • constituent sounds other than the main sound may be superimposed on the sound.
  • the support apparatus 1 displays the frequency and floor name assigned to the key on the monitor, and the sound. If is not a constituent sound of the scale in question, they are not displayed.
  • the support device 1 in a predetermined number of scale symbol groups in a certain scale type (hereinafter also referred to as a selection target scale symbol group).
  • the scale symbols to be given are sequentially selected from the selection candidates including the scale symbols that have not been selected yet (did not be given) during the current training.
  • the support device 1 performs the performance of the scale based on whether or not the keys corresponding to all the constituent sounds of the scale of the selected scale symbol (the scale in question) have been operated continuously. Determine success or failure.
  • a predetermined number of scale symbol groups are classified into each group, and the support device 1 counts the number of performance failures for each group.
  • the support apparatus 1 again places the scale symbol in the selection candidate queue (S142).
  • the support device 1 does not re-enter the scale symbol.
  • the support device 1 holds the number of performance failures for each scale symbol determined to be performance failure, and monitors the scale information to be noted based on the number of failures for each scale symbol. It can also be displayed.
  • the voice that reads the frequency” described in the third embodiment may be replaced with “the voice that reads the floor name”.
  • “speech reading a floor name” may be replaced with “speech reading a frequency”.
  • the “voice reading the frequency” and the “voice reading the floor name” may be switched and output under certain conditions and settings.
  • the support device 1 executes the following new process.
  • the following new process may be performed before (S134).
  • Assistance device 1 first determines the question code. Subsequently, the support device 1 determines a constituent sound accumulation order used for playing the chords of the question from a plurality of constituent sound accumulation orders such as a basic form, a first turning form, a second turning form, and the like. Furthermore, when displaying the pseudo keyboard in the keyboard area BP, the support apparatus 1 selects a key arrangement that enables performance using the constituent sound accumulation order. The support device 1 restricts the range of keys that can be operated by the user to a range that can be played only in the order in which the determined chords are determined. Set a key and a key that cannot be played. At that time, in order to make it easy to understand whether or not the performance operation can be seen from the user, the display can be changed.
  • the support device 1 may perform processing as follows.
  • the support device 1 determines the key layout of the pseudo keyboard to be displayed first in the keyboard area BP.
  • Next when determining the question code and determining the range of keys that can be played, select a sufficient range in which one or more constituent sound accumulation orders can be played, and two or more constituent sound accumulation orders will be played. If it is possible, the user should be able to play any one. In this case, since the support apparatus 1 can have a plurality of types of constituent sound accumulation orders correctly, it is possible to reduce the difficulty of training for the user.
  • the support device 1 accepts a user operation for a key that allows a performance operation, and does not accept a user operation for a key that does not allow a performance operation (S134).
  • the support apparatus 1 determines whether or not the sound corresponding to the operated key is included in the constituent sounds in the constituent sound accumulation order of the chord under question (S135).
  • FIG. 22 is a view showing a display example of a keyboard screen in the second modification of the third embodiment.
  • keys that cannot be played are colored in a predetermined color, and keys that can be played are maintained in the original keyboard color.
  • the user selects one of the constituent sound accumulation orders such as the basic form and the first turning form among the keys maintained in the color of the keyboard, and the chord symbol display area BS in the constituent sound accumulation order.
  • the chord symbol chord “C major chord” displayed in the above must be played.
  • the chord playing with a limited keyboard range
  • the user can perform chords one after another while fixing the range of keys that can be played.
  • Can acquire voice reading technology can acquire voice reading technology.
  • the user can not only learn individual chords, but also play chords and chords while connecting constituent sounds smoothly with minimal jumping of sound. You will be able to enjoy practical music performance.
  • the music learning support method includes: Detects user operations on each of a plurality of performance operators, Based on the selected reference sound, change the assignment of each frequency or each floor name to the plurality of performance operators, When the user operation is detected, a sound that reads the frequency or the floor name assigned to the operated performance operator is output. Equipment including that. 2. The voice that reads the frequency or the floor name assigned to the operated performance operator has a pitch corresponding to the performance operator. The apparatus according to 1. 3. The output is output by superimposing the voice that reads the frequency or the floor name assigned to the operated performance operator and the chord sound including the selected reference sound or the reference sound, The apparatus according to 1 or 2. 4).
  • the music learning support method includes: Whether the sound corresponding to the performance operator from which the user operation has been detected is a constituent sound of the chord in question including the selected reference sound in the selected chord type, or the selected scale type Determining whether or not it is a constituent sound of the scale in question including the selected reference sound in Further including The output changes an output sound including the sound that reads out the frequency or the floor name assigned to the operated performance operator according to the determination result.
  • the apparatus according to any one of 1 to 3. 5.
  • the output indicates the frequency or rank assigned to the operated performance operator.
  • the speech to be read out and at least one constituent sound of the scale in question or the code in question are superimposed and output, and if the sound is not a constituent sound of the code or scale in question, the speech Output only, 4.
  • the music learning support method includes: Whether the sound corresponding to the performance operator from which the user operation has been detected is a constituent sound of the chord in question including the selected reference sound in the selected chord type, or the selected scale type Whether or not the sound is a constituent sound of the scale in question including the selected reference sound in
  • the frequency or the floor name assigned to the operated performance operator is displayed on the display unit
  • the display unit displays the frequency or the floor name assigned to the operated performance operator.
  • the music learning support method includes: Among the predetermined number of code symbols or scale symbols that are different from each other in the selected code type or scale type, questions should be given from the selection candidates that include code symbols or scale symbols that have not yet been selected during the current training. Select the code symbol or scale symbol in sequence, Based on whether or not a plurality of performance operators corresponding to all constituent sounds of the selected chord or scale corresponding to the selected chord symbol or scale symbol are operated simultaneously or sequentially, Determine the success or failure of playing a chord or scale, When it is determined that the performance has failed, the chord symbol or scale symbol corresponding to the chord or scale in the question is again input to the selection candidate.
  • the apparatus according to any one of 4 to 6, further comprising: 8).
  • the music learning support method includes: For each group into which the predetermined number of chord symbol groups or scale symbol groups are classified, the number of performance failures is counted, When the selection candidates disappear, the current training is terminated. Further including The re-input of the chord symbol or the scale symbol into the selection candidate is the total number of performance failures of the group to which the chord symbol or the scale symbol corresponding to the chord or scale in the question belongs even if the performance is determined to have failed. Is not carried out when the number exceeds 8.
  • the apparatus 7. 9.
  • the music learning support method includes: Holds the number of failures for each chord symbol or scale symbol that is determined to have failed, Based on the number of failures for each code symbol or scale symbol, the code or scale information to be noted is displayed on the display unit.
  • the music learning support method includes: After the training, once a day, the first image showing the item in the middle of completion is displayed on the display unit, Accepts user operations on the first image only after the day after the first image was first displayed; When a user operation on the first image is accepted, the first image is changed to a second image indicating a completed item, Displaying information added to the item in the completed state on a display unit;
  • Each performance operator is each key of the keyboard, Each group comprises the predetermined number of code symbol groups or scale symbol groups, Each group is given an order, In the sequential selection of the code symbol or scale symbol to be given, the code symbol or scale symbol to be given is selected sequentially from each group according to the order of each group, and the code symbol or scale symbol in each group is selected. Change the order from the previous training, The apparatus according to any one of 8 to 10. 12
  • the music learning support method includes: Count the number of trainings completed each day, Execute the lesson completion event when the number of days that the training is completed is the predetermined number of times, After completing the lesson completion event, make the specified application executable.
  • a music learning support apparatus or musical instrument comprising: 16.
  • the voice that reads the frequency or the floor name assigned to the operated performance operator has a pitch corresponding to the performance operator.
  • the output sound processing unit superimposes and outputs the sound that reads the frequency or the floor name assigned to the operated performance operator and the chord sound including the selected reference sound or the reference sound, The music learning support apparatus or musical instrument according to 15 or 16.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

 プログラムがコンピュータに実行させる音楽学習支援方法は、複数の演奏操作子の各々に対するユーザ操作を検出し、選択された基準音(コードの根音またはスケールの主音)に基づいて、各度数又は各階名の、前記複数の演奏操作子への割り当てを変更し、前記ユーザ操作が検出された場合に、操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声を出力する、ことを含む。

Description

音楽学習支援装置及び楽器
 本発明は、音楽学習を支援する技術に関する。
 音楽教育では、楽譜に忠実に演奏するための教習と、即興演奏能力や創作能力を高めるための教習がなされる。このうち後者の教習は、今日ポピュラー・ミュージックの隆盛により、より多くの学習者の関心事になっているにも関わらず、そこに必要とされる音楽解析能力、コード記号の読力、スケール選択能力の訓練、およびそれらの基礎となる相対音感の訓練などは、初学者にとってハードルの高い学習内容である。そこで、音楽学習を支援する様々な手法が提案されている。
 例えば、下記特許文献1では、譜面になじみの薄い者に対しても、読譜についての効果的な学習を可能とする音楽学習支援装置が提案されている。この提案装置は、各種音楽記号の記号データと譜面上の位置座標データに基づいて、譜面表示及び演奏データ(MIDIデータ)への変換を行い、変換された演奏データから階名音データを生成し、その階名音データに対応する楽音を発生させる。この提案装置によれば、表示された譜面に従って、正確な音程で階名音が発生される。下記特許文献1では、「階名音」は、一般の歌唱で使われるメロディを「ド」、「レ」、「ミ」、「ファ」、「ソ」、「ラ」、「シ」、「ド」の発音によって歌う時の発音と定義されている。
 また、下記特許文献2では、コード(和音)学習を支援するために、コードネーム学習機能を備えた電子楽器が提案されている。この電子楽器は、コードネームの練習モードが選択されたら、コードネームの一覧を表示装置の表示画面に表示する。当該電子楽器は、その一覧の中から任意に選択されたコードネームの読み方をスピーカから音声によって放音し、その放音後、楽音でその選択されたコードの分散和音を出力し、続けて、楽音でそのコードを同時発音する。この電子楽器によれば、ユーザは、コードネームの読み方とコードの響きとを一体的に確認することができる。
特開2000-242267号公報 特開2009-251049号公報
 即興演奏能力を高める教習では、「相対音感」を利用した演奏能力の向上が図られる。「相対音感」を利用した演奏能力の向上により、演奏中の音楽に適した音を選択する能力が高まり、即興演奏能力が向上する。
 創作能力を高める教習でも同様に、「相対音感」を利用した創作能力の向上が図られる。「相対音感」を利用した創作能力の向上により、創作中の音楽に適した音を選択する能力が高まり、創作能力が向上する。
 ここで、「相対音感」とは、基準となる音(鈍音および楽音)との相対的な音程によって音の高さを識別する能力を意味する。「相対音感」を用いる場合の音の呼称には、基準となる音を「ド」と定義する「階名」と、基準となる音と一致する音程を「完全1度」と定義する「度数」との2種類がある。スケール(音階)の出発点となる音を主音、コード(和音)の出発点となる音を根音と呼ぶが、以下、本明細書では主音と根音の両者を表す言葉として「基準音」という言葉を用いる。
 相対音感に比して「絶対音感」と呼ばれる能力もある。「絶対音感」とは、他の音と比較することなく、或る音を単独で聞いてその音名を認識し得る能力である。相対音感は、基準となる音からのインターバル(音程)に着目している点で、絶対音感とは異なる能力である。それゆえ相対音感によれば、或る旋律や和声が、異なる調に移調された場合でも、同じ階名及び度数として認識される。これは、或る旋律と和声を、同じ構造であるかどうかによって認識するということと同義であり、音楽解析そのものである。即興演奏能力や創作能力を高めるためには、この音楽解析能力を伴った読譜力、コード記号の読力、スケール選択能力などが必要であるため、階名や度数を用いた相対音感の訓練が有効である。また、相対音感は絶対音感に比べて高齢者でも身につけやすい音感である事が知られており、相対音感を用いることは、幅広い年齢の学習者に有効である。
 このように相対音感の訓練は、即興演奏能力及び創作能力の向上に大変有効である。しかしながら、相対音感を、単なる計算能力として身に付けるのではなく、感覚的能力を伴ったものとして身に付けるためには、相対音感を楽器での弾き方と視覚的、聴覚的、身体感覚的に結び付けて教習することが重要となる。ところが、特許文献1及び2の各提案手法では、相対音感を楽器での弾き方と結び付けるという考え方は全く採られていない。
 本発明は、このような事情に鑑みてなされたものであり、相対的音感及び演奏の一体的な訓練を支援する技術を提供する。
 本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
 第一の側面は、コンピュータにより実行される音楽学習支援方法に関する。第一の側面に係る音楽学習支援方法は、複数の演奏操作子の各々に対するユーザ操作を検出し、選択された基準音(コードの根音またはスケールの主音)に基づいて、各度数又は各階名の、前記複数の演奏操作子への割り当てを変更し、前記ユーザ操作が検出された場合に、操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声を出力する、ことを含む。
 第二の側面は、音楽学習支援装置に関する。第二の側面に係る音楽学習支援装置は、複数の演奏操作子の各々に対するユーザ操作を検出する操作検出部と、選択された基準音(コードの根音またはスケールの主音)に基づいて、各度数又は各階名の、前記複数の演奏操作子への割り当てを変更する割当部と、前記ユーザ操作が検出された場合に、操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声を出力する出力音処理部と、を備える。
 なお、本発明の他の側面は、上記第一の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。また、上記第二の側面に係る音楽学習支援装置は、音楽学習支援機能を有する楽器であってもよい。
 上記各側面によれば、相対的音感及び演奏の一体的な訓練を支援する技術を提供することができる。
第一実施形態における音楽学習支援装置(支援装置)のハードウェア構成例を概念的に示す図である。 第一実施形態における音楽学習支援装置(支援装置)の動作例を示すフローチャートである。 鍵盤画面の第一例を示す図である。 鍵盤画面の第二例を示す図である。 鍵盤画面の第三例を示す図である。 鍵盤画面の第四例を示す図である。 第一実施形態における音楽学習支援装置(支援装置)の処理構成例を概念的に示す図である。 第二実施形態における電子楽器におけるハードウェア構成例を概念的に示す図である。 第二実施形態における電子楽器の動作例を示すフローチャートである。 第二実施形態における電子楽器の処理構成例を概念的に示す図である。 第三実施形態における音楽学習支援装置(支援装置)の補助工程に関する動作例を示すフローチャートである。 第三実施形態における音楽学習支援装置(支援装置)のトレーニング工程に関する動作例を示すフローチャートである。 第三実施形態における音楽学習支援装置(支援装置)のタイムトライアル工程に関する動作例を示すフローチャートである。 起動初日のメイン画面の例を示す図である。 初日のトレーニング終了後のメイン画面の例を示す図である。 起動2日目のメイン画面の起動前の表示例を示す図である。 起動2日目のメイン画面の起動前の表示例を示す図である。 アイテムに付加されている情報の表示例を示す図である。 第三実施形態における鍵盤画面の表示例を示す図である。 第三実施形態における鍵盤画面の表示例を示す図である。 タイムトライアル結果の履歴を示すグラフの表示例を示す図である。 第三実施形態における音楽学習支援装置(支援装置)の処理構成例を概念的に示す図である。 第三実施形態の第二変形例における鍵盤画面の表示例を示す図である。
 以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態はそれぞれ例示であり、本発明は以下の各実施形態の構成に限定されない。
[第一実施形態]
 以下、第一実施形態における音楽学習支援装置及び音楽学習支援方法について複数の図面を用いて説明する。以降、音楽学習支援装置及び音楽学習支援方法は、支援装置及び支援方法と略称される場合がある。
 〔ハードウェア構成〕
 図1は、第一実施形態における音楽学習支援装置のハードウェア構成例を概念的に示す図である。第一実施形態における支援装置1は、PC(Personal Computer)、携帯電話、スマートフォン、タブレット端末のようないわゆるコンピュータである。例えば、支援装置1は、CPU(Central Processing Unit)2、メモリ3、表示ユニット4、タッチセンサ5、通信ユニット6、スピーカユニット7等を有する。
 CPU2は、他の各ユニットとバス等の通信線により接続される。
 メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
 表示ユニット4は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイ等のようなモニタを含み、表示処理を行う。
 タッチセンサ5は、外部からの接触を感知することによりユーザからの操作入力を受け付ける。タッチセンサ5は、非接触状態であっても外部からの近接状態を検知することができるセンサであってもよい。また、表示ユニット4及びタッチセンサ5は、タッチパネルユニットとして実現されてもよい。支援装置1は、タッチセンサ5と共に、又は、タッチセンサ5の代わりに、マウスやキーボード等の入力装置と接続される入出力インタフェース(図示せず)を持つようにしてもよい。
 通信ユニット6は、無線通信又は有線通信を行い、通信網を介して他のコンピュータと通信を行う。通信網は、携帯電話回線網、Wi-Fi(Wireless Fidelity)回線網、インターネット通信網、専用回線網、LAN(Local Area Network)等である。
 スピーカユニット7は、音の出力装置である。
 支援装置1は、振動センサ、加速度センサ、撮像ユニット、マイクロフォンユニット等のように、図1に示されていないハードウェア要素を有してもよい。支援装置1は、汎用的なコンピュータであってもよいし、専用コンピュータであってもよい。本実施形態における支援装置1のハードウェア構成は制限されない。
 〔動作例/音楽学習支援方法〕
 以下、第一実施形態における音楽学習支援方法について図2を用いて説明する。図2は、第一実施形態における支援装置1の動作例を示すフローチャートである。図2に示されるように、第一実施形態における支援方法は、支援装置1のような少なくとも1つのコンピュータにより実行される。例えば、支援装置1において、CPU2がメモリ3に格納されるプログラム(音楽学習支援アプリケーション)を実行することで、図2に示される各処理工程がそれぞれ実行される。
 第一実施形態では、音楽学習に鍵盤が利用される。よって、当該音楽学習支援アプリケーションは、アカペラ鍵盤とも呼ばれる。第一実施形態では、鍵盤の各キーが演奏操作子に相当する。
 (S21)では、支援装置1は、設定情報を取得する。設定情報は、支援装置1により保持される。設定情報には、表示に関する設定情報、出力音に関する設定情報等が含まれる。例えば、支援装置1は、度数及び階名の表示の要否の設定情報、度数を読み上げる音声を出力するか「ウー(Uh-)」、「ルー」等のようなスキャット音声(意味のない音声)を出力するかについての設定情報を取得する。
 (S22)では、支援装置1は、選択されている基準音の情報を取得する(S22)。(S22)では、前回実行時に選択され、保持されていた基準音の情報が取得されてもよいし、デフォルトとして決められている基準音の情報が取得されてもよい。
 (S23)では、支援装置1は、(S22)で取得された基準音の情報に基づいて、その基準音に対応する度数及び階名を鍵盤に割り当てる。上述したとおり、本実施形態では、各演奏操作子は、支援装置1の表示ユニット4に含まれるモニタに表示される鍵盤の各鍵(キー)となる。支援装置1は、鍵盤の各キーに割り当てる、度数及び階名をそれぞれ決め、鍵(キー)と度数及び階名との対応関係を示す割り当て情報を保持する。例えば、割り当て情報は、鍵盤の鍵(キー)毎に、その鍵(キー)を示す情報と、度数の識別情報及び階名の識別情報との対応関係を含む。度数の識別情報及び階名の識別情報には、独自のIDが用いられてもよいし、度数の表記及び階名の表記が用いられてもよい。但し、各度数と各階名とは1対1で対応付けられるため、支援装置1は、各キーと各度数との対応関係のみを割り当て情報として保持してもよいし、度数と階名とのペアを識別し得る各IDと各キーとの対応関係のみを割り当て情報として保持してもよい。この場合、支援装置1は、度数と階名との対応関係、若しくは、IDと度数と階名との対応関係を別途保持する。
 (S24)では、支援装置1は、(S21)で取得された設定情報、(S22)で取得された基準音の情報、(S23)で決定された割り当て情報に基づいて、鍵盤画面を表示ユニット4のモニタに表示する。鍵盤画面には、ユーザに弾かせるための鍵盤を模した画像領域(鍵盤領域)が少なくとも含まれる。本実施形態では、鍵盤領域に表示される疑似鍵盤は、あくまで、ユーザに弾かせることを目的とするため、その疑似鍵盤の各キーは、ユーザの指で操作可能な大きさを持つ必要がある。一方で、表示ユニット4のモニタの大きさには制限がある。このような観点から、鍵盤領域に表示される疑似鍵盤のキー配置及びキーの数は決定される。このようにして、本実施形態では、疑似鍵盤を弾き易さを向上させている。
 また、支援装置1は、設定情報及び割り当て情報に基づいて、鍵盤の各キーの上に、度数及び階名の表記をそれぞれ重畳させて表示することができる。割り当て情報が、鍵盤の鍵(キー)毎に、その鍵(キー)を示す情報と、度数のID及び階名のIDとの対応関係を示す場合には、支援装置1は、度数のIDと度数の表記とが対応付けられたテーブル及び階名のIDと階名の表記とが対応付けられたテーブルを有し、各テーブルから度数及び階名の表記を抽出する。支援装置1は、各キーに割り当てられた全ての度数の中で、1から7の数字で表される度数のみを表示させてもよい。このようにすれば、全ての度数を表示する場合に比べて、鍵盤を見易くすることができると共に、ユーザに難解な印象を与えないようにすることができる。全ての度数を表示した場合、鍵盤上に度数表示が密集し、各キーが見難くなる可能性がある。フラット(♭)やシャープ(♯)が付かない数字のみを表示する場合には、初学者にも安心感や平易感を与えることができ、初学者に対する訓練のハードルを下げることにも繋がる。但し、メジャースケール(長音階)以外のスケール種(例えば、ナチュラルマイナー・スケール(自然的短音階)に対応する場合等のように、フラット(♭)やシャープ(♯)が付された数字が表示されることも有益な場合もあり得る。支援装置1は、度数及び階名のいずれか一方のみを表示させてもよい。また、支援装置1は、鍵盤画面の鍵盤領域以外に、当該設定情報及び選択されている基準音の情報を提示する領域を含めてもよい。
 図3は、鍵盤画面の第一例を示す図である。鍵盤領域BPには、図3に示されるキー配置で、19個のキーが表示されている。図3の例では、鍵盤画面には、鍵盤領域BPに加えて、基準音選択領域MP、音声設定領域SP1、表示設定領域SP2が含まれる。基準音選択領域MPは、ユーザに基準音を選択させるための画像領域であり、音名を英語表記で表示する。図3の例では、FシャープとGフラットのように1つの音(異名同音)が、異なる音名で個別に基準音として選択可能に表示されている。但し、異名同音を個別選択可能とせず、いずれか1つの音名のみが表示されるようにしてもよい。基準音選択領域MPにおいて、基準音に選択されている音名には着色される。図3の例では、「C」が基準音に選択されている。音声設定領域SP1は、ユーザに、度数を読み上げる音声を出力音とするか、「ウー」という音声を出力音とするかを設定させるための画像領域である。図3の例では、度数を読み上げる音声(「135」と表示)が選択されている。表示設定領域SP2は、ユーザに、度数及び階名の表示の要否を選択させるための画像領域である。図3の例では、表示要(「ON」と表記)が選択されている。
 図3の例では、鍵盤領域BPの各キーの上に、度数(1から7)及び階名(Do, Re, Mi, Fa, So, La, Ti)が重畳して表示されている。鍵盤領域BPの各キーと、度数及び階名との割り当てについては、(S23)で決定されている。
 (S25)では、支援装置1は、鍵盤画面に対するユーザ操作を検出する。支援装置1は、タッチセンサ5から送られる接触情報又は近接情報に基づいて、表示ユニット4のモニタに表示される鍵盤画面に対するユーザ操作を検出する。支援装置1は、鍵盤画面における、鍵盤領域に対する演奏操作、基準音変更操作、設定情報の変更操作等を検出する。演奏操作は、例えば、鍵盤のいずれか1つ又は複数のキーの表示領域をタップする操作である。基準音変更操作は、図3の例によれば、基準音選択領域MP内のいずれか1つの音名を表示する領域をタップする操作である。設定情報の変更操作は、図3の例によれば、音声設定領域SP1又は表示設定領域SP2内の所望の設定内容を表示する領域をタップする操作である。但し、支援装置1が検出する具体的なユーザ操作の内容は制限されない。
 支援装置1は、(S25)で検出されたユーザ操作の内容を判定する。この判定は、鍵盤画面の中のユーザ操作が検出された位置に基づいて行われる。支援装置1は、(S25)で検出されたユーザ操作が本アプリケーションの終了操作である場合には(S26;YES)、本アプリケーション(アカペラ鍵盤)を終了させる。
 一方、支援装置1は、(S25)で検出されたユーザ操作が本アプリケーションの終了操作でなく(S26:NO)、設定情報の変更操作である場合(S27;「設定変更」)、変更された設定情報に基づいて、表示されている鍵盤画面を更新する(S24)。検出されたユーザ操作が度数及び階名の表示を要から否に変更する操作である場合、支援装置1は、鍵盤の各キーに重畳されて表示されていた度数及び階名を消す。
 図4は、鍵盤画面の第二例を示す図である。図4の例では、音声設定領域SP1及び表示設定領域SP2に対するユーザ操作により、度数及び階名の表示が要から否に変更され、かつ、度数を読み上げる音声から「ウー(Uh-)」という音声に変更されている。表示設定領域SP2に関するその設定により、鍵盤の各キーに重畳されて表示されていた度数及び階名が消されている。
 支援装置1は、(S25)で検出されたユーザ操作が基準音の変更操作である場合(S27;「基準音変更」)、既に鍵盤に割り当てられている度数及び階名を変更し、変更後の基準音に基づく度数及び階名を鍵盤の各キーに割り当てる(S23)。支援装置1は、基準音の変更に基づいて、鍵盤画面を更新する(S24)。この更新により、表示設定領域において変更後の基準音の情報が表示され、かつ、(S23)での再割り当てに応じて、鍵盤の各キーに重畳して表示される度数及び階名の位置が更新される。
 図5は、鍵盤画面の第三例を示す図である。図5の例では、基準音が「D」に変更されている。これにより、各度数及び各階名が図3とは異なるキーの上に重畳して表示されている。図5の例によれば、(S23)では、変更後の基準音に基づいて、度数及び階名の鍵盤への割り当てが変更される。
 変更後の基準音によっては、元の鍵盤のキー配置では鍵盤のキーがオクターブ上の基準音まで連続する1オクターブとして表示されない可能性がある。この場合、支援装置1は、鍵盤領域BPに表示される疑似鍵盤のキー配置をずらして、鍵盤のキーがオクターブ上の基準音まで連続する1オクターブとして表示されるように制御する。つまり、(S23)で度数及び階名を割り当てるキーは、表示されているキーのみに制限されない。
 図6は、鍵盤画面の第四例を示す図である。図6の例では、基準音が「F」に変更されており、鍵盤領域BPに表示されるキー配置も、図3から図5に示されるものから変更されている。具体的には、紙面右方向に、表示されるキー群がずらされている。但し、基準音が「F」の場合には、図3から図5に示されるキー配置でも鍵盤のキーがオクターブ上の基準音まで連続する1オクターブとして表示され得る。このように、表示されるキー配置のずらしは、鍵盤のキーがオクターブ上の基準音まで連続する1オクターブとして表示されなくなるよりも前に実行されてもよい。
 支援装置1は、(S25)で検出されたユーザ操作が演奏操作である場合(S27;「演奏操作」)、操作されたキーに対応する音データを取得する(S28)。具体的には、支援装置1は、(S25)で検出された演奏操作の対象とされたキーを特定し、(S23)で決定された割り当て情報に基づいてその特定されたキーに割り当てられている度数を特定する。支援装置1は、特定された度数を読み上げる音声のデータを取得する。支援装置1は、度数毎に、度数の識別情報とその度数を読み上げる音声のデータとが対応付けられて格納されるデータベースを参照し、特定された度数の識別情報に基づいて、そのデータベースからその度数を読み上げる音声のデータを抽出することができる。
 度数を読み上げる音声は、1から7の各数字、及び、その数字にフラット(♭)又はシャープ(♯)が付加されて表される度数が、英語で読み上げられた声である。例えば、度数を読み上げる音声は、「ワン」、「スリー」、「フラットツー」、「シャープファイブ」等である。但し、当該音声では、度数は、日本語や他の言語で読み上げられてもよい。
 度数を読み上げる音声は、操作されたキーに対応する音の高さ(ピッチ)を持つことが望ましい。ユーザに度数を聴覚的に身に付けさせることができるからである。この場合、度数毎に、各キーに対応する音の高さ(ピッチ)でその度数を読み上げた音声を含む複数の音声データをそれぞれ格納する格納部が支援装置1、他のコンピュータ又は可搬型記録媒体に設けられる。支援装置1は、操作されたキーの情報と、そのキーに割り当てられた度数の情報とに基づいて、その格納部から対応する音データを抽出する。
 但し、音声設定において、「ウー(Uh-)」等のようなスキャット音声が選択されている場合には、支援装置1は、操作されたキーに対応する音の高さを持つ当該スキャット音声のデータを取得する。
 支援装置1は、操作されたキーに対応する音データとして、度数を読み上げる音声のデータと、操作されたキーの楽器音のデータとを取得してもよい。支援装置1は、更に、選択されている基準音のデータを取得してもよいし、基準音のデータ及び第五音(属音)のデータを更に取得してもよい。基準音及び第五音には、楽器音が利用されてもよい。
 (S29)において、支援装置1は、(S28)で取得された音データにより音をスピーカユニット7から出力する。例えば、支援装置1は、操作されたキーに割り当てられた度数を読み上げる音声をスピーカユニット7から出力する。このとき、支援装置1は、その音声に、操作されたキーの楽器音を重畳してスピーカユニット7から出力することができる。また、支援装置1は、度数を読み上げる音声であって、操作されたキーに対応する音の高さ(ピッチ)を持つ音声をスピーカユニット7から出力することもできる。
 支援装置1は、(S28)で当該音声データと共に基準音のデータが取得される場合には、操作されたキーに割り当てられた度数を読み上げる音声を、選択されている基準音と重畳して、スピーカユニット7から出力する。また、支援装置1は、(S28)で第五音のデータが更に取得される場合には、当該音声を、基準音及び第五音と重畳して、スピーカユニット7から出力する。
 本明細書では、「音声」は声を意味し、「音」は声を含むあらゆる音を意味し、「音声」と「音」とが使い分けられる。
 図2では、複数の処理工程が順番に表されているが、第一実施形態で実行される処理工程及びその実行順序は、図2の例のみに限定されない。例えば、(S21)及び(S22)の実行順は逆でもよいし、(S21)及び(S22)は同時に実行されてもよい。また、既に割り当て情報が保持されている場合には、(S23)は実行されなくてもよい。
 〔処理構成〕
 図7は、第一実施形態における支援装置1の処理構成例を概念的に示す図である。支援装置1は、操作検出部11、割当部12、出力音処理部13、表示処理部14、音格納部15等を有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから通信ユニット6を介してインストールされ、メモリ3に格納されてもよい。
 支援装置1は、図7に示される各処理部を用いて、図2に示される支援方法を実行することができる。この場合、操作検出部11は、(S25)、(S26)及び(S27)を実行する。割当部12は、(S22)及び(S23)を実行する。出力音処理部13は、(S21)、(S28)及び(S29)を実行する。表示処理部14は、(S21)、(S22)及び(S24)を実行する。
 音格納部15は、各度数を読み上げた音声を含む複数の音データを格納する。音格納部15は、当該複数の音データに含まれる各音声データについては、度数、又は、度数を識別するIDと対応付けて、格納する。更に、音格納部15は、各キーに対応する複数の楽器音のデータ及び複数のスキャット音声のデータを上記音データとして格納する。また、操作されたキーに対応する音の高さ(ピッチ)を持つ読み上げる音声が出力される場合には、音格納部15は、度数毎に、各キーに対応する音の高さ(ピッチ)で度数を読み上げた音声を含む複数の音声データをそれぞれ格納する。
 但し、支援装置1は、音格納部15を持たなくてもよい。この場合、出力音処理部13は、通信ユニット6を介して、音格納部15を有する他のコンピュータや可搬型記録媒体にアクセスすることで、音データを取得すればよい。
 〔第一実施形態における作用及び効果〕
 上述のように、第一実施形態では、支援装置1のモニタに、ユーザの指で各鍵(キー)を操作し得る大きさ及びキー配置の鍵盤画像を含む鍵盤画面が表示される。ユーザは、その鍵盤画面に含まれる基準音選択領域に対する操作により、基準音を選択することができる。第一実施形態では、ユーザにより選択された基準音に基づいて、各度数及び各階名が鍵盤の各キーに割り当てられ、ユーザによるその鍵盤のキーの操作により、その操作されたキーに割り当てられた音の高さ(ピッチ)で度数を読み上げる音声が出力される。
 これにより、ユーザは、鍵盤の鍵(キー)を押す操作をし、この操作に応じて出力される音声を聴くことで、自身が押したキーに割り当てられた度数を認識することができる。度数及び階名と各キーとの対応関係は、基準音に応じて変わる。本実施形態によれば、ユーザは、選択された基準音に対応する度数及び階名の鍵盤上の配置を聴覚的に把握することができる。
 更に、度数を読み上げる音声とその操作されたキーの楽器音とを重畳して出力する、又は、当該音声に、その操作されたキーに対応する音の高さを持たせることにより、ユーザに鍵盤を実際に弾いた感覚、即ち、演奏感覚を持たせることができる。これにより、ユーザは楽しく訓練することができると共に、度数及び階名の鍵盤上の配置を聴覚的に把握することができる。
 また、本実施形態では、操作されたキーに対応する音の高さ(ピッチ)で度数を読み上げる音声と、選択されている基準音とを重畳して出力することもできる。これにより、操作されたキーに割り当てられた度数を認識させつつ、操作されたキーの音と基準音との距離感を聴覚的にもユーザに感じさせることができる。即ち、本実施形態によれば、ユーザは、鍵盤を弾くという演奏を通じて、相対音感を養うことができる。また、本実施形態では、当該音声と基準音と第五音とを重畳して出力することもできる。これによれば、聴感上の仕組みにより、ユーザは、基準音をより強く感じることができる。よって、ユーザに、操作されたキーの音程をより感じ易くさせることができる。なお、基準音や第五音を当該音声に重畳しない場合でも、度数を読み上げることで、基準音との関係性が意識し易くなっているため、相対音感を鍛えることができる。
 また、本実施形態では、設定を変えることで、度数を読み上げる音声の代わりに、操作されたキーに対応する音の高さを持つスキャット音声を出力することもできる。この場合、ユーザは、度数の把握を自身で行いつつ、相対音感を訓練することになるため、レベルの高い訓練となる。このように、本実施形態によれば、訓練の難易度を変えることができる。
 更に、本実施形態では、上述のような音の出力だけでなく、各キー上に、選択されている基準音に対応する各度数及び各階名が重畳して表示される。これにより、ユーザは、聴覚的のみならず、視覚的にも、度数及び階名の鍵盤上の配置を把握することができる。
 また、本実施形態では、度数が、完全一度、長二度、短二度等のような学術的な用語ではなく、数字、又は、数字とシャープ又はフラットとの組み合わせで表される。これにより、上述のように、有効な音楽学習及び訓練を可能とするだけでなく、初学者等の音楽知識の少ない者にとっての訓練のハードルを下げることができ、幅広い年齢層やレベルの多くの者に利用され易くなる。更に、音楽学習及び訓練の継続性を向上させることができる。
[第二実施形態]
 上述の第一実施形態の内容は、電子楽器に適用することもできる。以下、第二実施形態における電子楽器及び音楽学習支援方法について複数の図面を用いて説明する。第二実施形態における電子楽器は、上述と同様な音楽学習支援機能を有する。以下、第二実施形態について、第一実施形態と異なる内容を中心に説明し、第一実施形態と同様の内容については適宜省略する。
 図8は、第二実施形態における電子楽器におけるハードウェア構成例を概念的に示す図である。第二実施形態における電子楽器20は、CPU21、メモリ22、操作パネル23、タッチセンサ24、鍵盤25、スピーカユニット26等を有する。
 CPU21は、他の各ユニットとバス等の通信線により接続される。
 メモリ22は、RAM、ROMである。
 スピーカユニット26は、スピーカ、アンプ等を含むサウンドシステムである。
 操作パネル23は、ユーザインタフェースを実現するユニットである。操作パネル23は、スライド式スイッチ、ダイヤル式スイッチ、押しボタン等の各種スイッチ、タッチパネル、モニタ、発光素子等を含むことができる。以降、スイッチやタッチパネルのように、操作パネル23に含まれユーザに操作される部材をユーザインタフェース(UI)操作子と表記し、モニタや発光素子等のように、操作パネル23に含まれ設定情報を提示する部材を提示部材と表記する。
 操作パネル23は、ユーザによる基準音の選択を可能とするUI操作子、及び、選択されている基準音が何かを示す提示部材を少なくとも有する。操作パネル23は、他のユーザインタフェースを実現する部材を有してもよい。例えば、操作パネル23は、音楽学習支援機能のON/OFFを切り替えるスイッチ、音楽学習支援機能の設定情報の内容を表示するモニタ等を含むことができる。
 タッチセンサ24は、外部からの接触を感知することによりユーザからの操作入力を受け付ける。タッチセンサ24は、非接触状態であっても外部からの近接状態を検知することができるセンサであってもよい。タッチセンサ24は、操作パネル23及び鍵盤25に対するユーザからの操作入力を受け付ける。具体的には、タッチセンサ24は、鍵盤25の各鍵(キー)が押されたことを検知する。また、タッチセンサ24は、操作パネル23に含まれるスイッチやタッチパネルに対するユーザ操作を検知する。
 電子楽器20は、図8に示されていないハードウェア要素を有してもよい。例えば、電子楽器20は、無線通信又は有線通信を行う通信ユニット、可搬型記録媒体とデータをやりとりするインタフェースユニット等を有してもよい。本実施形態における電子楽器20のハードウェア構成は制限されない。
 〔動作例/音楽学習支援方法〕
 以下、第二実施形態における音楽学習支援方法について図9を用いて説明する。図9は、第二実施形態における電子楽器20の動作例を示すフローチャートである。図9に示されるように、第二実施形態における支援方法は、電子楽器20により実行される。例えば、電子楽器20において、CPU21がメモリ22に格納されるプログラムを実行することで、図9に示される各処理工程がそれぞれ実行される。
 電子楽器20は、鍵盤25を有するため、第二実施形態においても、音楽学習に鍵盤が利用される。第二実施形態においても、鍵盤の各キーが演奏操作子に相当する。また、電子楽器20は、通常の電子機器と同様に、電源スイッチ(図示せず)がONにされると動作を開始し、電源スイッチがOFFされると動作を終了する。図9では、電源スイッチの操作に伴う動作については省略されている。
 図9に示される動作は、電子楽器20の電源スイッチがONになっている場合で、かつ、音楽学習支援機能がON状態となっている場合に実行される。音楽学習支援機能のON状態は、専用の1つのUI操作子で設定されてもよいし、複数のUI操作子の状態の組み合わせで設定されてもよい。
 (S91)では、電子楽器20は、設定情報を取得する。電子楽器20は、操作パネル23に含まれるUI操作子の状態を設定情報としてタッチセンサ24から取得することができる。また、電子楽器20は、タッチセンサ24により検知されたUI操作子の状態を記憶する記憶部から当該設定情報を取得することもできる。例えば、電子楽器20は、度数を読み上げる音声を出力するか否かについての設定情報を取得する。
 (S92)では、電子楽器20は、選択されている基準音の情報を取得する。基準音の情報の取得手法については、上述の設定情報の取得手法と同様である。
 (S93)では、電子楽器20は、(S92)で取得された基準音の情報に基づいて、その基準音に対応する度数及び階名を鍵盤に割り当てる。(S93)の具体的内容は、上述の(S23)と同様である。
 (S94)では、電子楽器20はユーザ操作を検出する。電子楽器20は、タッチセンサ24から送られる情報に基づいて、ユーザ操作を検出する。
 (S95)で、電子楽器20は(S94)で検出されたユーザ操作の内容を特定する。電子楽器20は、タッチセンサ24から送られる情報に基づいて、操作パネル23に対するユーザ操作か、鍵盤25に対するユーザ操作かを特定する。更に、電子楽器20は、操作パネル23のどのUI操作子が操作されたか、操作されたUI操作子の状態を特定する。また、電子楽器20は、鍵盤25の操作された鍵(キー)を特定する。
 電子楽器20は、設定変更のためのUI操作子に対する操作が検出された場合(S95;「設定変更」)、そのUI操作子の状態に基づいて、(S91)で取得された設定情報を更新する(S96)。例えば、UI操作子の状態が度数を読み上げる音声を出力する状態から出力しない状態に変更された場合には、電子楽器20は、その状態を設定情報に反映させる。
 電子楽器20は、基準音の選択のためのUI操作子に対する操作が検出された場合(S95;「基準音変更」)、既に鍵盤に割り当てられている度数及び階名を変更し、変更後の基準音に基づく度数及び階名を鍵盤の各キーに割り当てる(S93)。
 電子楽器20は、鍵盤25のキーに対する操作が検出された場合(S95;「演奏操作」)、操作されたキーに対応する音データを取得する(S97)。度数を読み上げる音声を出力することが設定情報に設定されている場合、電子楽器20は、(S93)で決定された割り当て情報に基づいて操作されたキーに割り当てられている度数を特定し、特定された度数を読み上げる音声のデータを取得する。度数を読み上げる音声に関連する内容については、第一実施形態と同様である。度数を読み上げる音声を出力しないことが設定情報に設定されている場合、電子楽器20は、操作されたキーに対応する楽器音のデータを取得してもよい。電子楽器20は、第一実施形態と同様に、度数を読み上げる音声のデータの他に、第一実施形態と同様の他の音データを取得することができる。
 (S98)において、電子楽器20は、(S97)で取得された音データにより音をスピーカユニット26から出力する。(S98)の具体的内容は、上述の(S29)と同様である。
 図9では、複数の処理工程が順番に表されているが、第二実施形態で実行される処理工程及びその実行順序は、図9の例のみに限定されない。例えば、(S91)及び(S92)の実行順は逆でもよいし、(S91)及び(S92)は同時に実行されてもよい。また、既に割り当て情報が保持されている場合には、(S93)は実行されなくてもよい。
 〔処理構成〕
 図10は、第二実施形態における電子楽器20の処理構成例を概念的に示す図である。電子楽器20は、操作検出部31、割当部32、出力音処理部33、音格納部34等を有する。これら各処理部は、例えば、CPU21によりメモリ22に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから、通信ユニット(図示せず)又は他のインタフェースユニット(図示せず)を介して、電子楽器20にインストールされ得る。インストールされたプログラムは、メモリ22に格納される。
 電子楽器20は、図10に示される各処理部を用いて、図9に示される支援方法を実行することができる。この場合、操作検出部31は、(S94)、(S95)及び(S96)を実行し、割当部32は、(S92)及び(S93)を実行し、出力音処理部33は、(S91)、(S97)及び(S98)を実行する。
 音格納部34は、音楽学習支援機能に依存しない楽器音、及び、各度数を読み上げた音声を含む複数の音データを格納する。音格納部34は、当該複数の音データに含まれる各音声データについては、度数、又は、度数を識別するIDと対応付けて、格納する。更に、音格納部34は、複数のスキャット音声のデータを上記音データとして格納することもできる。また、操作されたキーに対応する音の高さ(ピッチ)を持つ読み上げ音声が出力される場合には、音格納部34は、度数毎に、各キーに対応する音の高さ(ピッチ)で度数を読み上げた音声を含む複数の音声データをそれぞれ格納する。
 〔第二実施形態における作用及び効果〕
 上述のように、第二実施形態における電子楽器20では、ユーザは、操作パネル23のUI操作子に対する操作により、基準音を選択することができる。第二実施形態では、第一実施形態と同様に、ユーザにより選択された基準音に基づいて、各度数が鍵盤の各キーに割り当てられ、ユーザによるその鍵盤のキーの操作により、その操作されたキーに割り当てられた度数を読み上げる音声が出力される。また、操作されたキーに対応する音の高さを持ち、かつ、度数を読み上げる音声と、選択されている基準音とを重畳して出力することもできる。即ち、第二実施形態においても、第一実施形態と同様の効果を奏することができる。
[第一実施形態及び第二実施形態の変形例]
 上述の第一実施形態及び第二実施形態において、支援装置1及び電子楽器20は、度数を読み上げる音声に代えて、階名を読み上げる音声を出力してもよい。この場合、(S28)及び(S97)では、支援装置1及び電子楽器20は、操作されたキーに割り当てられている階名を特定し、特定された階名を読み上げる音声のデータを取得する。音格納部15及び34は、各階名を読み上げた音声を含む複数の音声データを格納する。音格納部15及び34は、各音声データを、階名、若しくは、度数及び階名を識別するIDと対応付けて、格納する。また、操作されたキーに対応する音の高さ(ピッチ)を持つ読み上げ音声が出力される場合には、音格納部15及び34は、階名毎に、各キーに対応する音の高さで階名を読み上げた音声を含む複数の音声データをそれぞれ格納する。度数を読み上げる音声を出力するか、階名を読み上げる音声を出力するかは、設定情報により切り替えられてもよいし、固定的に決められていてもよい。
 階名を読み上げる音声は、Do、Di、Ra、Re、Ri、Me、Mi、Fa、Fi、Se、So、Si、Le、La、Li、Te、Tiという英階名が英語で読み上げられた声である。但し、階名が、日本語、その他の言語又はいずれの言語にも特定できない響きの呼称で読み上げられてもよい。
 本変形例によれば、ユーザに、操作されたキーに割り当てられた階名を認識させつつ、相対音感を訓練することができる。階名の発音(例えば、「ド」)は、度数の発音(例えば、「ワン」(=1))よりも短くて済むため、短い音価(音符の長さ)の音に対しても割り当てることができる。それゆえ、本変形例によれば、度数を用いるよりも広範なメロディに対して容易に応用できる。
 上述の第一実施形態及び第二実施形態における支援装置1、電子楽器20及び支援方法は、鍵盤の利用のみに制限されない。支援装置1、電子楽器20及び支援方法は、ギター等の指板イメージを利用しても、同様の効果を得ることができる。
[第二実施形態の変形例]
 上述の第二実施形態では、鍵盤の各キーに割り当てられた各度数及び各階名の表示については言及されなかった。しかしながら、鍵盤25の各キー自体が表示手段をそれぞれ持つ場合、又は、電子楽器20が鍵盤25の各キーに近接する位置に各キーに対応付けられた表示手段を持つ場合には、鍵盤の各キーに割り当てられた各度数及び各階名を表示することはできる。この場合、電子楽器20は、(S93)で決定された割り当て情報に基づいて、各キーの表示手段に各キーに割り当てられた度数及び階名の少なくとも一方をそれぞれ表示させればよい。
[第三実施形態]
 以下、第三実施形態における音楽学習支援装置(支援装置)及び音楽学習支援方法(支援方法)について複数の図面を用いて説明する。第三実施形態における支援装置及び支援方法は、コード(和音)を習得するための更なるトレーニング機能を有し、上述の各実施形態と同様に、鍵盤を利用する。第三実施形態においても鍵盤の各キーが演奏操作子に相当する。但し、第三実施形態においても、上述の各実施形態と同様に、鍵盤の利用のみに制限されない。以下、第三実施形態について、上述の各実施形態と異なる内容を中心に説明し、上述と同様の内容については適宜省略する。
 第三実施形態における支援装置1のハードウェア構成は、図1に示される第一実施形態の構成と同様である。
 〔動作例/音楽学習支援方法〕
 以下、第三実施形態における音楽学習支援方法について図11、図12A及び図12Bを用いて説明する。図11、図12A及び図12Bは、第三実施形態における支援装置1の動作例を示すフローチャートである。図11、図12A及び図12Bに示されるように、第三実施形態における支援方法は、支援装置1のような少なくとも1つのコンピュータにより実行される。例えば、支援装置1において、CPU2がメモリ3に格納されるプログラム(音楽学習支援アプリケーション)を実行することで、図11、図12A及び図12Bに示される各処理工程がそれぞれ実行される。
 音楽学習支援アプリケーションは、ユーザに、トレーニングメニュー及びタイムトライアルメニューを提供する。即ち、第三実施形態における支援方法は、補助工程と、トレーニング工程と、タイムトライアル工程とを含む。補助工程では、支援装置1は、後述のメイン画面をユーザインタフェースとして用いて、そのメイン画面に設定されているコードタイプ及び構成音堆積順のトレーニングの継続及びタイムトライアルの遂行をサポートする。コードタイプとは、メジャーコード、マイナーコードのようなコードの種類を示す。構成音堆積順とは、基本形、第一転回形、第二転回形のような、構成音の堆積順の形を示す。トレーニング工程では、支援装置1は、トレーニングを開始するユーザ操作が行われたメイン画面に設定されているコードタイプ及び構成音堆積順のトレーニングを支援する。タイムトライアル工程では、支援装置1は、タイムトライアルを開始するユーザ操作が行われたメイン画面に設定されているコードタイプ及び構成音堆積順のタイムトライアルを支援する。
 《補助工程》
 図11は、第三実施形態における支援方法の補助工程を主に示す。
 支援装置1は、当該アプリケーションが起動されると、メイン画面を表示ユニット4のモニタに表示する(S111)。メイン画面には、任意のコードタイプ及び任意の構成音堆積順が設定される。デフォルトのメイン画面には、例えば、最も基本的なコードとして、コードタイプ「メジャーコード」及び構成音堆積順「基本形」が設定される。
 図13は、起動初日のメイン画面の例を示す図である。図13の例におけるメイン画面は、表示エリアTC及びDP、操作エリアMN1、MN2、PA、SM及びRD等を含む。表示エリアTCは、そのメイン画面に設定されているコードタイプ及び構成音堆積順の情報を表示する。図13の例における表示エリアTCは、コードタイプ「メジャーコード」の構成音堆積順「基本形」が選択されていることを示している。表示エリアDPは、トレーニング中の日数を表示する。操作エリアMN1は、トレーニング工程を開始する操作を受け付ける。操作エリアMN2は、タイムトライアル工程を開始する操作を受け付ける。操作エリアPAは、ギフトアプリケーション(所定アプリケーション)を起動する操作を受け付ける。操作エリアSMは、各種設定画面を表示する操作を受け付ける。操作エリアRDは、タイムトライアル結果の履歴を表示する操作を受け付ける。
 図13の例では、支援装置1は、その日のトレーニングが1回でも完了した後に、操作エリアMN2に対するユーザ操作を受け付けるようになる。また、後述のようにギフトアプリケーションが実行可能状態とされた後のみ、操作エリアPAに対するユーザ操作が受け付けられる。
 図11には示されていないが、支援装置1は、次のように動作してもよい。支援装置1は、トレーニングが完了した回数を日単位でカウントし、1回以上トレーニングが完了した日数が所定日数となる場合に、レッスン修了のイベントを実行する。レッスン修了のイベントでは、例えば、所定の画像(動画像)が表示され、所定の音楽が再生される。レッスン修了のイベントの終了後、支援装置1は、所定アプリケーション(ギフトアプリケーション)を実行可能状態とする。即ち、支援装置1は、トレーニング工程が所定日数分実行されることを監視し、トレーニング工程が所定日数分実行された場合、ユーザに報奨としてギフトアプリケーションを提供する。このような報奨を設けることで、トレーニングを継続するモチベーションを維持させることができる。図13の例では、所定日数が20日間に設定されている。所定日数は、コードの習熟度合及びトレーニングの持続可能性から経験則的に設定されることが望ましい。表示エリアDPには、トレーニング中の日数及び所定日数(20日間)が表示されている。
 支援装置1は、(S111)で表示されたメイン画面に対するユーザ操作を検出する(S112)。支援装置1は、その検出されたユーザ操作がアイテムを選択する操作であるか否かを判定する(S113)。ここで、アイテムとは、トレーニング工程の完了後にメイン画面に表示される画像である。表示されるアイテムは、トレーニング工程の完了の報奨と捉えることもでき、表示後、いつでも操作可能となる。(S113)では、支援装置1は、(S112)で検出されたユーザ操作がそのアイテムを示す画像を選択する操作であるか否かを判定する。
 支援装置1は、日単位のトレーニング工程の完了後にアイテムをユーザに提供する。支援装置1は、トレーニングが完了した日数が上記所定日数に到達するまで、トレーニングが完了した日毎に異なるアイテムを提供する。日毎のアイテムは、完成途中状態及び完成状態の2段階の表示形態を有し、メイン画面に表示される。更に、支援装置1は、日単位のアイテムに加えて、5日単位のアイテムを提供する。このアイテムは完成状態のみを持ち、メイン画面に表示される。なお、図13は、起動初日のメイン画面の例であるため、図13には、アイテムは図示されていない。アイテムの提供間隔(5日単位)は例示であり、そのような間隔に制限されない。
 支援装置1は、トレーニング終了後、1日に1回、完成途中のアイテムを示す第一画像をモニタに表示させ、その第一画像が最初に表示された日の次の日以降にのみ、その第一画像に対するユーザ操作を受け付ける。支援装置1は、(S112)で検出されたユーザ操作がアイテムの選択操作である場合(S113;YES)、その選択されたアイテムが完成途中状態を示すか否かを判定する(S114)。支援装置1は、選択されたアイテムが完成途中状態を示す場合には(S114;YES)、そのアイテムの画像を完成状態のアイテムを示す完成画像に変える(S115)。続いて、支援装置1は、そのアイテムに付加されている情報をモニタに表示する(S116)。支援装置1は、選択されたアイテムが完成途中状態を示さない、即ち、完成状態を示す場合には(S114;NO)、その画像を変更することなく、そのアイテムに付加されている情報をモニタに表示する(S116)。
 支援装置1は、提供されたアイテム毎に、状態(完成途中状態か完成状態か)及び付加されている情報又は画像を記憶する。アイテムに付加される情報には、格言や著名人の名言、覚え方のコツ等、トレーニングのモチベーションの維持やコード習熟に役立つ情報が利用されることが望ましい。
 図14は、初日のトレーニング終了後のメイン画面の例を示す図である。図14には、図13には表示されていなかった画像が表示されている。その画像には、アイテムを示す画像GF1及びGF2が含まれる。画像GF1は、完成途中状態のアイテムを示す画像である。ユーザは、この完成途中状態のアイテムの画像を見ることで、このアイテムが完成状態となることを期待し、次の日以降も本アプリケーションを起動するモチベーションを維持することができる。支援装置1は、このメイン画面上の画像GF1を選択する操作をユーザが行ったとしても、この操作を受け付けない。更に、図14には、5日単位のアイテムを示す画像GF2も含まれる。
 図15は、起動2日目のメイン画面の起動前の表示例を示す図である。図15には、完成途中状態のアイテムを示す画像が最初に表示された日(1日目)の次の日以降(2日目)に、メイン画面が起動されているため、支援装置1は、そのアイテムの画像に対するユーザ操作を受け付ける。図15の例では、ユーザが気付き易いように、完成途中状態のアイテムの画像を指す矢印画像が表示され、更に、その画像にフォーカスがあてられている。
 図16は、起動2日目のメイン画面の起動前の表示例を示す図である。図15の画面において、完成途中状態のアイテムを示す画像をユーザが選択すると、支援装置1は、図16に示される画像GF1のように、完成状態のアイテムの画像に変更する。以降、そのアイテムの画像GF1をユーザが選択すると、支援装置1は、図16に示されるように、そのアイテムに付加されている情報画像IP1をモニタに表示する。図16の例では、ピカソの名言が表示されている。
 図17は、アイテムに付加されている情報の表示例を示す図である。支援装置1は、メイン画面に表示されるアイテム画像GF2を選択するユーザ操作を検出すると、そのアイテムに付加されていた、図17に示されるような情報画像IP2をモニタに表示する。
 支援装置1は、(S112)で検出されたユーザ操作がギフトアプリケーション画像を選択する操作であるか否かを判定する(S113;NO、S117)。図13の例では、検出されたユーザ操作が、操作エリアPAに対するユーザの選択操作であるか否かが判定される。支援装置1は、そのユーザ操作がギフトアプリケーション画像を選択する操作である場合(S117;YES)、ギフトアプリケーションが実行可能状態であるか否かを判定する(S118)。支援装置1は、ギフトアプリケーションが実行可能状態である場合(S118;YES)、ギフトアプリケーションを起動する(S119)。例えば、ギフトアプリケーションとして、第一実施形態における音楽学習支援アプリケーション(アカペラ鍵盤)が起動される。一方、支援装置1は、ギフトアプリケーションが実行可能状態でない場合(S118;NO)、ギフトアプリケーションを起動しない。
 支援装置1は、(S112)で検出されたユーザ操作がメイン画面の移行操作であるか否かを判定する(S113;NO、S117;NO、S120)。支援装置1は、トレーニング対象となるコードタイプ及び構成音堆積順(図13の表示エリアTCの内容)について、1回以上トレーニングが完了した日数が所定日数となった場合、又は、タイムトライアル工程で所定の成績を記録した場合に、更なるメイン画面を提供する。更なるメイン画面では、元のメイン画面に設定されていたコードタイプ及び構成音堆積順とは異なる組み合わせが選択される。例えば、更なるメイン画面には、コードタイプ「メジャーコード」及び構成音堆積順「第一転回形」が設定される。支援装置1は、更なるメイン画面を提供するにあたり、各メイン画面にメイン画面の移行を可能とする画像(矢印ボタン等)を設ける。
 支援装置1は、(S112)で検出されたユーザ操作がメイン画面の移行操作である場合(S120;YES)、他のメイン画面をモニタに表示する(S111)。以降、表示された当該他のメイン画面に対するユーザ操作が検出される(S112)。
 支援装置1は、(S112)で検出されたユーザ操作がトレーニングを開始する操作であるか否かを判定する(S113;NO、S117;NO、S120;NO、S121)。支援装置1は、そのユーザ操作がトレーニングを開始する操作である場合(S121;YES)、そのメイン画面に設定されているコードタイプ及び構成音堆積順のトレーニング工程を開始する(図12Aに移行)。
 支援装置1は、(S112)で検出されたユーザ操作がタイムトライアルを開始する操作であるか否かを判定する(S113;NO、S117;NO、S120;NO、S121;NO、S122)。支援装置1は、そのユーザ操作がタイムトライアルを開始する操作である場合(S122;YES)、そのメイン画面に設定されているコードタイプ及び構成音堆積順についてのタイムトライアル工程を開始する(図12Bに移行)。このとき、支援装置1は、その日にトレーニング工程を一度も実行していない場合や、タイムトライアル工程の実行回数が所定回数(例えば、3回)を超える場合に、そのタイムトライアル工程を開始しないようにすることもできる。このように、タイムトライアル工程の実行条件や実行回数の制限を設けることが可能である。
 図11では、複数の処理工程が順番に表されているが、支援方法の補助工程で実行される各工程及びその実行順序は、図11の例のみに限定されない。例えば、検出されたユーザ操作の内容の判定(S113、S117、S120、S121、S122)の順番は変更可能である。また、その他の内容を示すユーザ操作が検出されてもよい。
 《トレーニング工程》
 図12Aは、第三実施形態における支援方法のトレーニング工程を示す。
 支援装置1は、トレーニング開始を示すユーザ操作が検出されると(図11のS121;YES)、図12Aに示されるように動作する。このトレーニング工程において、支援装置1は、根音を順次選択する。支援装置1は、異なる12個の音(C、Dフラット(又はCシャープ)、D、Eフラット(又はDシャープ)、E、F(又はEシャープ)、Fシャープ(又はGフラット)、G、Aフラット(又はGシャープ)、A、Bフラット(又はAシャープ)、B(又はCフラット))を根音として順次選択してもよいし、異名同音(例えば、FシャープとGフラット)を個別に根音として選択してもよい。但し、異名同音を個別に選択する場合には、候補の数が多数となるため、コードタイプ毎の使用頻度等に応じて、異名同音の中でも根音として選択される候補が制限されることが望ましい。支援装置1は、メイン画面に設定されているコードタイプにおける選択された根音で特定されるコードネームに対応するコード(和音)を順次出題し、その出題されたコード(和音)を順次ユーザに演奏させる。異なる12個の音が根音として選択される場合には、12個のコード(和音)が出題対象となる。一方で、異名同音が個別に根音として選択される場合には、同じコード(和音)であっても、異なるコードネームを用いて重複して出題されるコードも有り得る。
 まず、支援装置1は、鍵盤画面を表示ユニット4のモニタに表示する(S130)。鍵盤画面には、上述の各実施形態と同様に疑似鍵盤を表示する鍵盤領域が少なくとも含まれる。
 図18は、第三実施形態における鍵盤画面の表示例を示す図である。鍵盤画面には、上述の各実施形態と同様の鍵盤領域BPが含まれる。鍵盤画面には、鍵盤領域BPに加えて、対象表示領域TC、コードネーム表示領域BS、終了操作領域HB、ヒント操作領域HDが含まれる。対象表示領域TCは、コードタイプ及び構成音堆積順の情報を表示する。TCに表示される情報は、トレーニング開始を示すユーザ操作が行われたメイン画面に設定されているコードタイプ及び構成音堆積順を示す。図18の例では、コードタイプ「メジャーコード」の構成音堆積順「基本形」が選択されていることが示される。
 終了操作領域HBは、トレーニングの終了操作を受け付ける領域である。支援装置1は、終了操作領域HBに対するユーザ操作を検出すると、トレーニング工程を終了させ、メイン画面を再表示する。ヒント操作領域HDは、ヒント画面の表示操作を受け付ける領域である。支援装置1は、ヒント操作領域HDに対するユーザ操作を検出すると、ヒント画面をモニタに表示する。
 コード記号表示領域BSは、異なる複数のコード記号を列状に表示する。図18の例では、メジャーコードのコード記号が表示されており、領域BSには、根音の英語表記が列状に並んで表示されている。他の例として、マイナーコードが選択されている場合には、領域BSには、根音の英語表記に「m」が添えられたコード記号が列状に並んで表示される。出題対象として選択されているコードのコード記号は、領域BSの中央にフォーカスされて表示され、既に出題されたコードのコード記号は、領域BSの中央から左側に2つ表示され、これから出題されるコードのコード記号は、中央から右側に表示される。コード記号表示領域BSに表示されるコード記号の列は、出題中のコードのコード記号を中央に配置しながら紙面左側に徐々にシフトされる。図18の例では、コードネーム「Fメジャーコード」が出題されている。
 支援装置1は、メイン画面に設定されているコードタイプにおける所定数のコード記号群(以降、選択対象コード記号群と表記する場合もある)の出題順を決定する。異名同音を区別しない場合には、上記12個の各音をそれぞれ根音とするコード群を示す12個のコード記号が選択対象コード記号群となる。一方、異名同音を区別する場合には、上記12個の各音をそれぞれ根音とするコード群を示す13個以上の所定数のコード記号が選択対象コード記号群となる(同音異名のコード記号で重複して出題されるコード(和音)が含まれる)。支援装置1は、決定された出題順でコード記号を並べた、コード記号列をコード記号表示領域BSに表示する。図18の例では、支援装置1は、出題中のコードのコード記号を中央に、当該コード記号列の中の最大6個のコード記号を、コード記号表示領域BSに表示させている。但し、コード記号表示領域BSに表示されるコード記号の数は限定されない。各コード記号の出題順は、以降、選択候補キューとも表記される。支援装置1は、選択候補キューから順番にコード記号を選択することで、その選択されたコード記号で示されるコード(和音)を出題し、そのコードをユーザに演奏させる。但し、各コード記号の出題順は以下のような例に制限されず、任意である。支援装置1は、各コードの構成音についての情報を予め保持する。
 選択対象コード記号群は、各グループに予め分類され、各グループには予めそれぞれ順番が付される。コード記号の分類情報及び各グループに付された順番情報は、支援装置1に予め保持される。当該選択対象コード記号群は、各コード記号で示されるコードを演奏するための白鍵及び黒鍵の利用パターンで分類され、各グループは、ユーザに馴染み易い鍵(キー)の利用パターンが先の順番となるように、順番付けされることが望ましい。例えば、メジャーコードの基本形が設定されている場合、選択対象コード記号群は、次のような4つのグループに分類され得る。第一グループは、白鍵のみを使う3つのコードのコード記号(C、F及びG)からなる。第二グループは、白鍵-黒鍵-白鍵の利用パターンで演奏される3つのコードのコード記号(D、E及びA)からなる。第三グループは、黒鍵-白鍵-黒鍵の利用パターンで演奏される3つのコードのコード記号(D♭、E♭及びA♭)からなる。第四グループは、その他の3つのコードのコード記号(F#、B♭及びB)からなる。しかしながら、コードタイプとしてメジャーコードが設定されている場合、コード記号(F#)と(G♭)とは同音異名のコードで、かつ一般に使用される頻度が同程度であるため、重複して出題される。よって、第四グループは、その他の3つのコードを示す4つのコード記号(F#、B♭、B及びG♭)から形成される。各グループの順番は、第一グループから第四グループへの順で付与される。各グループ内の各コード記号の選択順(コードの出題順)は任意に決定される。このようにコード記号(コード)の出題順が決められることで、ユーザは、トレーニングのハードルを下げ、トレーニングの継続を支援することができる。初学ユーザにとっては、黒鍵よりも白鍵のほうが馴染み易いと考えられ、馴染み易く演奏し易いコードから取り組むことができるからである。
 更に、支援装置1は、各グループ内のコード記号の出題順を前回のトレーニング時と変わるように決定することもできる。これにより、毎回、出題されるコード記号の順番が変わるため、飽きさせず、トレーニングを継続させることができる。
 支援装置1は、上述のように決定された選択候補キューの先頭に位置する1つのコード記号を出題対象として選択する(S131)。(S131)で選択されたコード記号を出題中のコード記号と表記し、そのコード記号で示されるコードを出題中のコードと表記する場合もある。第一実施形態で述べたように、選択されたコード記号のコードに応じて、支援装置1は、鍵盤領域BPに表示される疑似鍵盤のキー配置をずらして、その出題されたコード記号のコードを演奏するための全てのキーが表示されるように、表示制御を行う。例えば、「Eメジャーコード」が出題される場合と、「Fメジャーコード」が出題される場合とでは、鍵盤領域BPに表示される疑似鍵盤のキー配置が変更される。
 支援装置1は、(S131)で選択されたコード記号を提示する(S132)。図18の例では、支援装置1は、選択されたコード記号(コードシンボル)の英語表記「F」をフォーカスしてコード記号表示領域BSに表示している。
 支援装置1は、(S131)で選択されたコード記号のコードの根音に基づく度数及び階名を鍵盤に割り当てる(S133)。具体的には、支援装置1は、(S131)で選択されたコード記号のコードの根音に基づいて、鍵盤の各鍵(キー)に割り当てる、度数及び階名をそれぞれ決め、その割り当て情報を保持する。(S133)の具体的内容は、上述の(S23)と同様である。
 支援装置1は、鍵盤の鍵(キー)を押すユーザ操作を検出する(S134)。このユーザ操作の検出手法は、第一実施形態で述べたとおりである。
 支援装置1は、検出されたユーザ操作により押されたキーに対応する音が、(S131)で選択されたコード記号のコード(出題中のコード)の構成音であるか否かを判定する(S135)。このとき、支援装置1は、(S133)で決定された割り当て情報及び予め保持する各コードの構成音情報に基づいて、その判定を行う。
 支援装置1は、操作されたキーに対応する音が出題中のコードの構成音である場合には、そのキーに割り当てられた度数を読み上げる音声のデータ及びそのコードの音(楽器音)データを取得する(S136)。具体的には、支援装置1は、割り当て情報に基づいて、操作されたキーに割り当てられた度数を特定し、その特定された度数を読み上げる音声のデータを取得する。また、支援装置1は、コード毎に音データを格納する格納部から、選択されている(出題中の)コードに対応する音声データを取得する。一方、支援装置1は、操作されたキーに対応する音が出題中のコードの構成音でない場合には、出題中のコードの音データを取得せず、そのキーに割り当てられた度数を読み上げる音声のデータのみを取得する(S136)。度数を読み上げる音声の詳細は、第一実施形態で説明したとおりである。出題中のコードの音は、例えば、ピアノ等の鍵盤を持つ楽器の演奏音である。
 支援装置1は、(S136)で取得されたデータにより音をスピーカユニット7から出力する(S137)。具体的には、支援装置1は、操作されたキーに対応する音が出題中のコードの構成音である場合には、そのキーに割り当てられた度数を読み上げる音声と、出題中のコード(和音)とを重畳してスピーカユニット7から出力する。操作されたキーに対応する音が出題中のコードの構成音でない場合には、支援装置1は、その度数を読み上げる音声のみをスピーカユニット7から出力する。このように、支援装置1は、(S135)での判定結果に応じて、出力音を切り替える。また、第一実施形態で述べたとおり、支援装置1は、度数を読み上げる音声については、操作されたキーに対応する音の高さを持つ状態で、出力することもできる。
 更に、支援装置1は、(S135)での判定結果に応じて、操作されたキーの表示を変更する(S138)。具体的には、支援装置1は、操作されたキーに対応する音が出題中のコードの構成音である場合には、操作されたキーに割り当てられた度数及び階名をそのキーの表示領域に重畳して表示ユニット4のモニタに表示する。操作されたキーに対応する音が出題中のコードの構成音でない場合には、支援装置1は、その度数及び階名を表示させない。
 図19は、第三実施形態における鍵盤画面の表示例を示す図である。図19には、メジャーコードの基本形における、コード記号「F」が選択されている(出題されている)場合が例示される。更に、図19は、「1度」及び「3度」が割り当てられた2つのキーが操作されて、その操作されたキー上にその度数及び階名が重畳的に表示されている。また、その操作された2つのキーの色が他のキーの色とは変えられている。
 支援装置1は、出題中のコードの全ての構成音に対応する複数のキーが同時又は連続的に操作されたか否かに基づいて、その出題中のコードの演奏の成功又は失敗を判断する(S139)。ここで、「全ての構成音に対応する複数のキーが連続的に操作される」とは、構成音以外の音に対応するキーが途中で操作されることなく、全ての構成音に対応する複数のキーが操作されることを意味する。支援装置1は、出題中のコードの全ての構成音に対応する複数のキーが同時又は連続的に操作された場合に、演奏成功と判断し、構成音以外の音に対応するキーが途中で操作された場合には、演奏失敗と判断する。
 支援装置1は、演奏失敗と判断された場合(S139;NO)、出題中のコード記号に関する失敗回数を加算する(S140)。このように、支援装置1は、コード記号毎の失敗回数を保持する。支援装置1は、保持されるコード記号毎の失敗回数に基づいて、コード記号が分類されたグループ毎に、演奏失敗の回数を集計する(S141)。
 支援装置1は、出題中のコード記号が属するグループの演奏失敗の総回数が所定回数を超えない場合(S141;NO)、その出題中のコード記号を再度、選択候補キューに投入する(S142)。支援装置1は、選択候補キュー内の、その出題中のコード記号が属するグループ内の末尾にそのコード記号を再投入する。但し、コード記号の選択候補キューへの再投入位置については任意である。
 一方で、支援装置1は、出題中のコード記号が属するグループの演奏失敗の総回数が所定回数を超える場合(S141;YES)、そのコード記号の再投入をせず、選択候補キューに次に選択すべき(出題すべき)コード記号が存在するか否かを判定する(S143)。また、支援装置1は、出題中のコードの演奏が成功と判断した場合にも(S139;YES)、その判定を行う(S143)。支援装置1は、次に選択すべきコード記号が存在しない場合には(S143;NO)、今回のトレーニングを終了する(END)。トレーニングを終了するにあたり、支援装置1は、保持されるコード記号毎の失敗回数に基づいて、総失敗回数や留意すべきコード記号のコード情報をモニタに表示することもできる。また、支援装置1は、次回のトレーニング開始時に、前回のトレーニングで保持された失敗回数に基づいて、留意すべきコードの情報をモニタに表示することもできる。
 支援装置1は、選択候補キューに次に選択すべき(出題すべき)コード記号が存在する場合(S143;YES)、又は、出題されたコード記号を選択候補キューへ再投入した場合(S142)、選択候補キューにおける次の順番のコード記号を次に出題すべき対象として選択する(S131)。支援装置1は、その新たに選択されたコード記号に関し、(S132)以降を実行する。
 図12Aでは、複数の処理工程が順番に表されているが、支援方法のトレーニング工程で実行される各工程及びその実行順序は、図12Aの例のみに限定されない。例えば、(S132)及び(S133)の実行順は逆でもよいし、それらは同時に実行されてもよい。また、(S138)は、(S136)よりも前に実行されてもよいし、(S136)又は(S137)と同時に実行されてもよい。
 《タイムトライアル工程》
 図12Bは、第三実施形態における支援方法のタイムトライアル工程を示す。
 支援装置1は、タイムトライアルを開始するユーザ操作が検出されると(S122;YES)、図12Bに示されるように動作する。このタイムトライアル工程において、支援装置1は、選択対象コード記号群の全てのコード記号の演奏に成功する時間を計測する。図12Bでは、図12Aと同じ内容の工程には、図12Aと同じ符号が付されている。
 タイムトライアル工程における選択候補キューに設定される各コードの順番は、トレーニング工程と同じでもよいし、異なってもよい。タイムトライアル工程は、ユーザの腕試しのために設けられ、トレーニング工程とはその趣旨が異なるため、馴染み易さ等を考慮しなくてもよいからである。
 支援装置1は、鍵盤画面をモニタに表示すると(S130)、タイム計測を開始する(S151)。支援装置1は、以降、トレーニング工程と同様に(S131)から(S139)を実行する。
 支援装置1は、演奏失敗と判断された場合(S139;NO)、失敗回数を加算する(S152)。タイムトライアル工程では、支援装置1は、総失敗回数のみをカウントしてもよい。支援装置1は、トレーニング工程と同様に、コード記号毎又はグループ毎に失敗回数をカウントするようにしてもよい。タイムトライアル工程では、支援装置1は、演奏失敗と判断された場合でも(S139;NO)、コード記号の再出題を行うことなく、出題中のコードの演奏が成功と判断されるまで(S139;YES)、(S134)から(S139)を繰り返し実行する。これにより、演奏を失敗する度に、タイムが遅くなることになる。
 支援装置1は、演奏成功と判断されると(S139;YES)、選択候補キューに未選択(未出題)のコード記号が存在するか否かを判定する(S153)。支援装置1は、未選択のコード記号が存在する場合(S153;YES)、未選択のコード記号の中から1つのコード記号を出題対象として選択する(S131)。支援装置1は、その新たに選択されたコード記号に関し、以降、(S131)から(S139)を実行する。
 支援装置1は、未選択のコード記号が存在しなくなると(S153;NO)、タイム測定を停止し、測定されたタイムを記録する(S154)。支援装置1は、測定されたタイムを日毎に保持する。支援装置1は、タイムトライアル工程が1日に複数回実行された場合には、その日で最速のタイムのみを保持するようにしてもよい。
 図12Bでは、複数の処理工程が順番に表されているが、支援方法のタイムトライアル工程で実行される各工程及びその実行順序は、図12Bの例のみに限定されない。例えば、(S151)は、(S130)よりも前に実行されてもよいし、(S130)と同時に実行されてもよい。また、より厳密なタイムを計測するためには、(S133)と(S134)との間に(S151)が実行され、(S139)と(S153)との間にタイム計測の停止が実行されてもよい。このようにすれば、対象コード記号毎にタイムが計測される。よって、この場合には、(S154)は、対象コード記号毎のタイムを合計したタイムを記録する。
 図20は、タイムトライアル結果の履歴を示すグラフの表示例を示す図である。例えば、支援装置1は、図13に示されるメイン画面の操作エリアRDに対するユーザ操作が検出された場合に、このグラフをモニタに表示する。図20の例では、タイムトライアル工程で計測されたタイムが折れ線グラフで示され、トレーニング工程の実行回数が棒グラフで示されている。この例に示されるように、支援装置1は、トレーニング工程の実行回数を日毎に保持するようにしてもよい。
 〔処理構成〕
 図21は、第三実施形態における支援装置1の処理構成例を概念的に示す図である。支援装置1は、第一実施形態の構成に加えて、判定部16及び訓練処理部17を更に有する。判定部16及び訓練処理部17についても他の処理部と同様に実現される。
 支援装置1は、図21に示される各処理部を用いて、図11、図12A及び図12Bに示される支援方法を実行することができる。操作検出部11は、(S112)、(S113)、(S117)、(S118)、(S120)、(S121)、(S122)、(S134)等を実行する。割当部12は(S133)を実行する。出力音処理部13は、(S136)、(S137)を実行する。表示処理部14は、(S111)、(S114)、(S115)、(S116)、(S119)、(S130)、(S132)、(S138)を実行する。判定部16は、(S135)、(S139)を実行する。訓練処理部17は、(S131)、(S140)、(S141)、(S142)、(S143)、(S151)、(S152)、(S153)、(S154)を実行する。また、訓練処理部17は、トレーニングが終了した回数を日単位でカウントすることもできる。表示処理部14は、1回以上、トレーニングが終了した日数が、所定日数(例えば、20日)となる場合に、レッスン修了のイベントを実行する。表示処理部14は、レッスン修了のイベントの終了後、プレゼントアプリケーションを実行可能状態とすることもできる。
 音格納部15は、各度数を読み上げた音声のデータ及び各コードの音(楽器音)データを格納する。音格納部15は、各度数を読み上げた音声データについては、度数、又は、度数を識別するIDと対応付けて、格納する。音格納部15は、各コードの音データについては、コードを識別するIDと対応付けて格納する。また、操作されたキーに対応する音の高さを持つ読み上げ音声が出力される場合には、音格納部15は、度数毎に、各キーに対応する音の高さで度数を読み上げた音声を含む複数の音声データをそれぞれ格納する。
 但し、支援装置1は、音格納部15を持たなくてもよい。この場合、出力音処理部13は、通信ユニット6を介して、音格納部15を有する他のコンピュータや可搬型記録媒体にアクセスすることで、音データを取得すればよい。
 〔第三実施形態における作用及び効果〕
 上述のように、第三実施形態では、ユーザに、トレーニングメニュー及びタイムトライアルメニューが提供される。トレーニングメニューでは、所定数のコード記号が順次選択(出題)され、画面に表示される疑似鍵盤にて、その選択された(出題された)コード記号のコードをユーザに順次演奏させる。このとき、上述の各実施形態と同様に、選択されたコード記号のコードに基づいて、度数及び階名の、疑似鍵盤の各鍵(キー)への割り当てが変更される。ユーザは、画面に提示されるその選択されたコード記号を見ながら、そのコード記号のコードの構成音に対応するキーを操作する。そのキー操作に応じて、そのキーに対応する音が、その選択されたコード記号のコードの構成音であるか否かが判定され、その音が構成音である場合、そのキーに割り当てられた度数を読み上げる音声とそのコードの音とが重畳されて出力される。その音が構成音でない場合、そのキーに割り当てられた度数を読み上げる音声のみが出力される。
 操作されたキーの度数読み上げ声が出力されることで、ユーザは、自ら操作したキーに割り当てられた度数を楽理的(音楽理論的)に意識することができる。また、度数読み上げ声が、出題中のコード音と重畳されて出力されているか否かによって、ユーザは、自ら操作したキーが出題中のコードの構成音であるか否かを直ぐに把握することができる。更に、度数読み上げ声に、操作キーと対応するピッチを持たせることで、ユーザは、自ら操作したキーに割り当てられた度数を聴覚的に意識することができる。これがコード音と重畳出力された時、ユーザは、自ら操作したキーが、出題中のコード音の中でどう響くのか、相対音感的に確かめることができる。従って、第三実施形態によれば、ユーザは、実際の楽器で演奏するイメージを持ちながら、音楽理論的にも聴覚的にもコードを習得できると共に、相対音感そのものを養うことができる。
 更に、トレーニングメニューでは、上述のような出力音の制御だけでなく、操作されたキーに対応する音が出題中のコードの構成音であるか否かに応じて、操作されたキーに割り当てられた度数及び階名の表示の有無が切り替えられる。その音が構成音である場合、操作されたキーに度数及び階名が重畳表示され、その音が構成音でない場合には、度数及び階名が表示されない。これにより、ユーザには、操作されたキーに割り当てられた度数を音声によって認識させつつ、視覚的にも操作されたキーに対応する音が出題中のコードの構成音であるか否かを直ぐに把握させることができる。
 また、トレーニングメニューでは、出題中のコードの全ての構成音に対応する鍵(キー)が同時又は連続的に操作されたか否かで、そのコードの演奏の成功又は失敗が判断される。演奏失敗と判断されたコード記号は、再度出題される。これにより、ユーザにとって苦手なコード記号は複数回出題されることになるため、コードを効率よく習得することができる。更に、演奏失敗の回数がカウントされ、演奏失敗の回数が所定回数を超えた場合には、演奏失敗と判断されたコード記号でも再出題されなくなる。これにより、演奏失敗を繰り返したとしても、必ず、全てのコード記号が出題されて、トレーニングが終了するため、初学者にとってのトレーニングのハードルを下げることができる。更に、コード記号毎の失敗回数が保持され、これに基づいて留意すべきコード記号のコード情報等が表示されるため、各ユーザに有意義なアドバイスを提供することができる。
 更に、タイムトライアルメニューでユーザにコード演奏のタイムトライアルをさせることにより、ユーザにコードの習熟度を把握させることができ、トレーニングのやる気を向上させることができる。
 また、第三実施形態では、このようなメニューに加えて、トレーニングを実行するユーザのモチベーションを向上させ、ユーザにトレーニングを楽しくかつ継続的に実行させる様々な仕組みが提供される。例えば、トレーニング終了後、1日に1回、完成途中状態のアイテム画像がメイン画面に表示される。この完成途中状態のアイテム画像は、表示された次の日以降のメイン画面の起動により、ユーザ操作可能とされる。そして、そのユーザ操作により、そのアイテム画像が完成状態に変更され、そのアイテム画面に付加されている情報が表示される。これにより、次の日もメイン画面を起動してトレーニングを行うというユーザのモチベーションを向上させ、トレーニングの継続性を高めることができる。
 更に、トレーニングが完了した回数が日単位でカウントされ、1回以上、トレーニングが完了した日数が所定日数となる場合に、レッスン修了のイベントが実行されると共に、所定アプリケーションが実行可能状態とされる。即ち、所定アプリケーション(例えば、アカペラ鍵盤)がレッスン修了の報奨品としてユーザに提供される。これにより、少なくとも所定日数(例えば、20日)の間、ユーザにトレーニングを継続させるモチベーションを与えることができる。このトレーニングの継続期間である所定日数は、コード習得に要する期間及び継続可能な期間等から経験則的に決められることが望ましい。その所定日数の間トレーニングを継続させることで、ユーザが、反射的にコードを演奏できるようにすることができる。
 このように、第三実施形態によれば、ユーザに楽しく継続的にコード演奏のトレーニングをさせることができると共に、鍵盤の各キーに対応する音とコードの音との関係を聴覚的及び視覚的に把握させることができる。楽器での弾き方と視覚的、聴覚的、身体感覚的に結び付けてコードを把握するからこそ、「相対音感」を養うことができる。
[第三実施形態の第一変形例]
 上述の第三実施形態ではコード習得が支援された。上述の第三実施形態と同様の支援装置1及び支援方法により、コードに代えて、スケール(音階)習得を支援することもできる。第一変形例では、「コードタイプ」が「スケールタイプ」に置き換えられ、「根音」が「主音(音階の開始音)」に置き換えられ、「コード記号」が「スケール記号」に置き換えられる。「スケールタイプ」には、メジャースケール、ナチュラル・マイナースケール、ハーモニック・マイナースケール、メロディック・マイナースケール、教会旋法、琉球音階、民謡音階、陰旋法音階等が存在する。
 第一変形例における図12A及び図12Bの(S135)では、支援装置1は、ユーザ操作の検出された鍵(キー)の音が、或るスケールタイプにおける選択されたスケール記号のスケール(出題中のスケール)の構成音であるか否かを判定する。(S136)及び(S137)では、支援装置1は、操作されたキーに対応する音が出題中のスケールの構成音である場合には、そのキーに割り当てられた階名を読み上げる音声と、出題中のスケールの少なくとも1つの構成音とを重畳して出力する。その音が出題中のスケールの構成音でない場合には、支援装置1はその音声のみを出力する。階名を読み上げる音声と重畳する、出題中のスケールの構成音は、主音であることが望ましい。但し、主音以外の構成音が当該音声と重畳されてもよい。(S138)では、支援装置1は、操作されたキーに対応する音が出題中のスケールの構成音である場合には、そのキーに割り当てられた度数及び階名をモニタに表示させ、その音が出題中のスケールの構成音でない場合には、それらを表示させない。
 第一変形例における図12A及び図12Bの(S131)では、支援装置1は、或るスケールタイプにおける所定数のスケール記号群(以降、選択対象スケール記号群と表記する場合もある)の中の、今回のトレーニング中に未だ選択されていない(出題されていない)スケール記号を含む選択候補の中から出題すべきスケール記号を順次選択する。(S139)では、支援装置1は、選択されたスケール記号のスケール(出題中のスケール)の全ての構成音に対応するキーが連続的に操作されたか否かに基づいて、そのスケールの演奏の成功又は失敗を判断する。
 第一変形例では、所定数のスケール記号群(選択対象スケール記号群)が各グループに分類され、支援装置1は、そのグループ毎に演奏失敗の回数をカウントする。支援装置1は、出題中のスケールの演奏が失敗と判断された場合、そのスケール記号を再度、選択候補キューに投入する(S142)。但し、支援装置1は、出題中のスケール記号が属するグループの演奏失敗の総回数が所定回数を超える場合には、そのスケール記号の再投入を行わない。また、第一変形例では、支援装置1は、演奏失敗と判定されたスケール記号毎の、演奏失敗回数を保持し、スケール記号毎の失敗回数に基づいて、留意すべきスケールの情報をモニタに表示することもできる。
 上述の第三実施形態で記載している「度数を読み上げる音声」は、「階名を読み上げる音声」に置き換えられてもよい。上述の第三実施形態の第一変形例においても同様に、「階名を読み上げる音声」は、「度数を読み上げる音声」に置き換えられてもよい。また、第三実施形態及び第三実施形態の第一変形例において、「度数を読み上げる音声」と「階名を読み上げる音声」とが或る条件や設定で切り替えられて出力されてもよい。
 第一変形例によれば、スケール(音階)の習得に関しても、上述の第三実施形態と同様の作用効果を得ることができる。
[第三実施形態の第二変形例]
 上述の第三実施形態では、メイン画面に設定されているコードタイプ(メジャーコード等)の選択対象コード記号群を同メイン画面に設定されている構成音堆積順(基本形等)で演奏する訓練が支援された。第三実施形態における支援装置1及び支援方法によれば、与えられた状況下でユーザ自らが最適な構成音堆積順を選択する訓練を支援することもできる(第二変形例)。
 第二変形例では、メイン画面にはコードタイプのみが設定される。第二変形例のトレーニング工程では、支援装置1は、次のような新たな工程を実行する。以下の新たな工程は、(S134)の前に実行されればよい。
 支援装置1は、まず、出題コードを決定する。続いて、支援装置1は、基本形、第一転回形、第二転回形等のような複数の構成音堆積順の中から、出題のコードの演奏に用いる構成音堆積順を決定する。さらに、支援装置1は、鍵盤領域BPに疑似鍵盤を表示する際に、その構成音堆積順を用いて演奏可能になるキー配列を選択する。支援装置1は、ユーザが操作可能なキーの範囲を、決定したコードを決定した構成音堆積順だけで演奏可能な範囲に制限するために、既に選択したキー配列内に演奏操作が可能な鍵(キー)と演奏操作が不可能な鍵(キー)とを設定する。その際、ユーザから見て演奏操作の可否を分かりやすくするために、表示に変化をつけることもできる。また、他の処理例として、支援装置1は、次のように処理してもよい。支援装置1は、先に鍵盤領域BPに表示する擬似鍵盤のキー配列を決定する。次に、出題コードを決定し、演奏操作可能なキーの範囲を決定する際に、1種類以上の構成音堆積順が演奏できる充分な範囲を選択し、2種類以上の構成音堆積順が演奏できる場合には、ユーザはいずれか1つを演奏できれば良しとする。この場合、支援装置1は、複数種の構成音堆積順を正解に持つ事ができるため、ユーザにとっての訓練の難易度を下げることができる。
 支援装置1は、演奏操作が可能なキーに対するユーザ操作を受け付け、演奏操作が不可能なキーに対するユーザ操作を受け付けない(S134)。支援装置1は、操作されたキーに対応する音がその出題中のコードのその構成音堆積順の構成音に含まれるか否かを判定する(S135)。
 図22は、第三実施形態の第二変形例における鍵盤画面の表示例を示す図である。図22の例では、演奏操作が不可能なキーが所定の色に着色され、演奏操作が可能なキーが元の鍵盤の色に維持されている。ユーザは、鍵盤の色に維持されているキーの中で、基本形、第一転回形等の構成音堆積順のいずれか1つを選択して、その構成音堆積順で、コード記号表示領域BSで表示されたコード記号のコード「Cメジャーコード」を演奏しなければならない。
 第二変形例によれば、限られた鍵盤範囲でコードを弾く訓練を行うことができ、さらに、演奏操作が可能なキーの範囲を固定したまま次々にコードを出題するなどの手法によって、ユーザにヴォイスリーディング(声部連結)の技術を獲得させることができる。これにより、ユーザは、個々のコードの習得だけでなく、コードとコードとの繋ぎ目を、音の跳躍を最小限にして、なめらかに構成音をつなぎながら弾くことができるようになるため、より実践的な音楽演奏を楽しめるようになる。
 なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
 上記の各実施形態及び各変形例の一部又は全部は、以下のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。
1.音楽学習支援方法を実行する装置において、
 前記音楽学習支援方法は、
 複数の演奏操作子の各々に対するユーザ操作を検出し、
 選択された基準音に基づいて、各度数又は各階名の、前記複数の演奏操作子への割り当てを変更し、
 前記ユーザ操作が検出された場合に、操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声を出力する、
 ことを含む装置。
2.操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声は、該演奏操作子に対応する音の高さを持つ、
 1に記載の装置。
3.前記出力は、操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声と、前記選択された基準音又は該基準音を含むコード音とを重畳して出力する、
 1又は2に記載の装置。
4.前記音楽学習支援方法は、
 前記ユーザ操作が検出された演奏操作子に対応する音が、選択されたコードタイプにおける前記選択された基準音を含む出題中のコードの構成音であるか否か、又は、選択されたスケールタイプにおける前記選択された基準音を含む出題中のスケールの構成音であるか否かを判定する、
 ことを更に含み、
 前記出力は、前記判定結果に応じて、操作された演奏操作子に割り当てられた度数又は階名を読み上げる前記音声を含む出力音を変える、
 1から3のいずれか1つに記載の装置。
5.前記出力は、前記ユーザ操作が検出された演奏操作子に対応する音が前記出題中のコード又はスケールの構成音である場合には、操作された演奏操作子に割り当てられた度数又は階名を読み上げる前記音声と、前記出題中のスケールの少なくとも1つの構成音又は前記出題中のコードとを重畳して出力し、前記音が前記出題中のコード又はスケールの構成音でない場合には、該音声のみを出力する、
 4に記載の装置。
6.前記音楽学習支援方法は、
 前記ユーザ操作が検出された演奏操作子に対応する音が、選択されたコードタイプにおける前記選択された基準音を含む出題中のコードの構成音であるか否か、又は、選択されたスケールタイプにおける前記選択された基準音を含む出題中のスケールの構成音であるか否かを判定し、
 前記ユーザ操作が検出された演奏操作子に対応する音が前記出題中のコード又はスケールの構成音である場合には、操作された演奏操作子に割り当てられた度数又は階名を表示部に表示し、前記ユーザ操作が検出された演奏操作子に対応する音が前記出題中のコード又はスケールの構成音でない場合には、操作された演奏操作子に割り当てられた度数又は階名を該表示部に表示する、
 ことを更に含む1から5のいずれか1つに記載の装置。
7.前記音楽学習支援方法は、
 選択されたコードタイプ又はスケールタイプにおける各々異なる所定数のコード記号群又はスケール記号群の中の、今回のトレーニング中に未だ選択されていないコード記号又はスケール記号を含む選択候補の中から出題すべきコード記号又はスケール記号を順次選択し、
 前記選択されたコード記号又はスケール記号に対応する出題中のコード又はスケールの全ての構成音に対応する複数の演奏操作子が同時又は連続的に操作されたか否かに基づいて、該出題中のコード又はスケールの演奏の成功又は失敗を判断し、
 前記演奏が失敗と判断された場合に、前記出題中のコード又はスケールに対応するコード記号又はスケール記号を再度、前記選択候補に投入する、
 ことを更に含む4から6のいずれか1項に記載の装置。
8.前記音楽学習支援方法は、
 前記所定数のコード記号群又はスケール記号群が分類されたグループ毎に、演奏失敗の回数をカウントし、
 前記選択候補がなくなると、今回のトレーニングを終了する、
 ことを更に含み、
 前記コード記号又はスケール記号の前記選択候補への再投入は、前記演奏が失敗と判断されても、前記出題中のコード又はスケールに対応するコード記号又はスケール記号が属するグループの演奏失敗の総回数が所定回数を超える場合には、実施されない、
 7に記載の装置。
9.前記音楽学習支援方法は、
 演奏失敗と判定されたコード記号毎又はスケール記号毎の、失敗回数を保持し、
 コード記号毎又はスケール記号毎の失敗回数に基づいて、留意すべきコード又はスケールの情報を表示部に表示する、
 ことを更に含む8に記載の装置。
10.前記音楽学習支援方法は、
 トレーニング終了後、1日に1回、完成途中状態のアイテムを示す第一画像を表示部に表示し、
 前記第一画像が最初に表示された日の次の日以降にのみ、前記第一画像に対するユーザ操作を受け付け、
 前記第一画像に対するユーザ操作が受け付けられた場合に、前記第一画像を完成状態のアイテムを示す第二画像に変え、
 前記完成状態のアイテムに付加されている情報を表示部に表示する、
 ことを更に含む8又は9に記載の装置。
11.前記各演奏操作子は、鍵盤の各キーであり、
 前記各グループは、前記所定数のコード記号群又はスケール記号群が分類されてなり、
 前記各グループには、順番がそれぞれ付されており、
 前記出題すべきコード記号又はスケール記号の順次選択は、各グループの順番に応じて、各グループ内から出題すべきコード記号又はスケール記号を順次選択し、各グループ内のコード記号又はスケール記号の選択順を前回のトレーニングと変える、
 8から10のいずれか1項に記載の装置。
12.前記音楽学習支援方法は、
 トレーニングが完了した回数を日単位でカウントし、
 1回以上、トレーニングが完了した日数が所定日数となる場合に、レッスン修了のイベントを実行し、
 レッスン修了のインベントの終了後、所定アプリケーションを実行可能状態とする、
 ことを更に含む8から11のいずれか1項に記載の装置。
13.1から12のいずれか1つに記載の音楽学習支援方法をコンピュータに実行させるプログラム又はそのプログラムをコンピュータに読み取り可能に記録する記録媒体。
14.1から12のいずれか1項に記載の音楽学習支援方法。
15.複数の演奏操作子の各々に対するユーザ操作を検出する操作検出部と、
 選択された基準音に基づいて、各度数又は各階名の、前記複数の演奏操作子への割り当てを変更する割当部と、
 前記ユーザ操作が検出された場合に、操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声を出力する出力音処理部と、
 を備える音楽学習支援装置又は楽器。
16.操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声は、該演奏操作子に対応する音の高さを持つ、
 15に記載の音楽学習支援装置又は楽器。
17.前記出力音処理部は、操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声と、前記選択された基準音又は該基準音を含むコード音とを重畳して出力する、
 15又は16に記載の音楽学習支援装置又は楽器。

Claims (7)

  1.  コンピュータに音楽学習支援方法を実行させるプログラムにおいて、
     前記音楽学習支援方法は、
     複数の演奏操作子の各々に対するユーザ操作を検出し、
     選択された基準音に基づいて、各度数又は各階名の、前記複数の演奏操作子への割り当てを変更し、
     前記ユーザ操作が検出された場合に、操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声を出力する、
     ことを含むプログラム。
  2.  操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声は、該演奏操作子に対応する音の高さを持つ、
     請求項1に記載のプログラム。
  3.  前記出力は、操作された演奏操作子に割り当てられた度数又は階名を読み上げる音声と、前記選択された基準音又は該基準音を含むコード音とを重畳して出力する、
     請求項1又は2に記載のプログラム。
  4.  前記音楽学習支援方法は、
     前記ユーザ操作が検出された演奏操作子に対応する音が、選択されたコードタイプにおける前記選択された基準音を含む出題中のコードの構成音であるか否か、又は、選択されたスケールタイプにおける前記選択された基準音を含む出題中のスケールの構成音であるか否かを判定する、
     ことを更に含み、
     前記出力は、前記判定結果に応じて、操作された演奏操作子に割り当てられた度数又は階名を読み上げる前記音声を含む出力音を変える、
     請求項1から3のいずれか1項に記載のプログラム。
  5.  前記出力は、前記ユーザ操作が検出された演奏操作子に対応する音が前記出題中のコード又はスケールの構成音である場合には、操作された演奏操作子に割り当てられた度数又は階名を読み上げる前記音声と、前記出題中のスケールの少なくとも1つの構成音又は前記出題中のコードとを重畳して出力し、前記音が前記出題中のコード又はスケールの構成音でない場合には、該音声のみを出力する、
     請求項4に記載のプログラム。
  6.  前記音楽学習支援方法は、
     前記ユーザ操作が検出された演奏操作子に対応する音が、選択されたコードタイプにおける前記選択された基準音を含む出題中のコードの構成音であるか否か、又は、選択されたスケールタイプにおける前記選択された基準音を含む出題中のスケールの構成音であるか否かを判定し、
     前記ユーザ操作が検出された演奏操作子に対応する音が前記出題中のコード又はスケールの構成音である場合には、操作された演奏操作子に割り当てられた度数又は階名を表示部に表示させ、前記ユーザ操作が検出された演奏操作子に対応する音が前記出題中のコード又はスケールの構成音でない場合には、操作された演奏操作子に割り当てられた度数又は階名を該表示部に表示させない、
     ことを更に含む請求項1から5のいずれか1項に記載のプログラム。
  7.  請求項1から6のいずれか1項に記載のプログラムがコンピュータに実行させる前記音楽学習支援方法を実行する音楽学習支援装置。
PCT/JP2014/074802 2014-09-19 2014-09-19 音楽学習支援装置及び楽器 WO2016042653A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/074802 WO2016042653A1 (ja) 2014-09-19 2014-09-19 音楽学習支援装置及び楽器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/074802 WO2016042653A1 (ja) 2014-09-19 2014-09-19 音楽学習支援装置及び楽器

Publications (1)

Publication Number Publication Date
WO2016042653A1 true WO2016042653A1 (ja) 2016-03-24

Family

ID=55532716

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/074802 WO2016042653A1 (ja) 2014-09-19 2014-09-19 音楽学習支援装置及び楽器

Country Status (1)

Country Link
WO (1) WO2016042653A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6070892U (ja) * 1983-10-20 1985-05-18 ヤマハ株式会社 電子楽器
JPH04146473A (ja) * 1990-10-08 1992-05-20 Casio Comput Co Ltd 電子音声楽器
JPH0572965A (ja) * 1991-09-11 1993-03-26 Casio Comput Co Ltd 音楽装置
JPH05204297A (ja) * 1991-11-29 1993-08-13 Casio Comput Co Ltd 階名発生装置
JP2000242267A (ja) * 1999-02-22 2000-09-08 Kawai Musical Instr Mfg Co Ltd 音楽学習支援装置及び音楽学習支援プログラムを記録したコンピュータ読み取り可能な記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6070892U (ja) * 1983-10-20 1985-05-18 ヤマハ株式会社 電子楽器
JPH04146473A (ja) * 1990-10-08 1992-05-20 Casio Comput Co Ltd 電子音声楽器
JPH0572965A (ja) * 1991-09-11 1993-03-26 Casio Comput Co Ltd 音楽装置
JPH05204297A (ja) * 1991-11-29 1993-08-13 Casio Comput Co Ltd 階名発生装置
JP2000242267A (ja) * 1999-02-22 2000-09-08 Kawai Musical Instr Mfg Co Ltd 音楽学習支援装置及び音楽学習支援プログラムを記録したコンピュータ読み取り可能な記録媒体

Similar Documents

Publication Publication Date Title
US7893337B2 (en) System and method for learning music in a computer game
Juslin et al. Play it again with feeling: computer feedback in musical communication of emotions.
US7888579B2 (en) Electronic musical instrument and performance control program systems and methods
US20180357991A1 (en) Musical chord identification, selection and playing method and means for physical and virtual musical instruments
KR20110127644A (ko) 음악 연주 교습을 위한 컴퓨터 기반 시스템
WO2018159831A1 (ja) 演奏支援装置及び方法
JP6493543B2 (ja) 演奏補助装置及び方法
US11341944B2 (en) Playback, recording, and analysis of music scales via software configuration
JP3842403B2 (ja) 音楽教習システム、音楽教習方法、及び同方法を実現するためのプログラムを記録した記録媒体
Liao et al. An analysis of song-leading by kindergarten teachers in Taiwan and the USA
Hopkins Eighth-grade violinists’ instrument tuning ability: A comparison of pitch perception and tuning accuracy
US20150331657A1 (en) Methods and apparatus for audio output composition and generation
KR20120034486A (ko) 음악교습에 사용되는 건반장치
US11640767B1 (en) System and method for vocal training
Timmers et al. Training expressive performance by means of visual feedback: existing and potential applications of performance measurement techniques
JP2013083845A (ja) 情報処理装置および方法、並びにプログラム
JP2015025873A (ja) 情報処理装置、情報処理方法及びプログラム
US10096306B2 (en) Input support apparatus and method therefor
WO2016042653A1 (ja) 音楽学習支援装置及び楽器
JP7410725B2 (ja) 管理装置、方法及びプログラム
JPH10187021A (ja) 音楽教習システム、音楽教習方法、及び同方法を実現するためのプログラムを記録した記録媒体
JP6862667B2 (ja) 楽譜表示制御装置及びプログラム
JP5445996B2 (ja) 幼児又は児童向け入力処理方法
TWI696986B (zh) 智能鋼琴訓練系統
KR102532811B1 (ko) 악보 제작 기능을 포함하는 음악 레슨 시스템 및 이의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14902063

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14902063

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP