WO2019082321A1 - テンポ設定装置及びその制御方法、プログラム - Google Patents

テンポ設定装置及びその制御方法、プログラム

Info

Publication number
WO2019082321A1
WO2019082321A1 PCT/JP2017/038593 JP2017038593W WO2019082321A1 WO 2019082321 A1 WO2019082321 A1 WO 2019082321A1 JP 2017038593 W JP2017038593 W JP 2017038593W WO 2019082321 A1 WO2019082321 A1 WO 2019082321A1
Authority
WO
WIPO (PCT)
Prior art keywords
tempo
utterance
detection
beat
detected
Prior art date
Application number
PCT/JP2017/038593
Other languages
English (en)
French (fr)
Inventor
松本 秀一
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to JP2019549760A priority Critical patent/JP6891969B2/ja
Priority to PCT/JP2017/038593 priority patent/WO2019082321A1/ja
Publication of WO2019082321A1 publication Critical patent/WO2019082321A1/ja
Priority to US16/856,926 priority patent/US11526134B2/en
Priority to JP2021088571A priority patent/JP2021144238A/ja

Links

Images

Classifications

    • GPHYSICS
    • G04HOROLOGY
    • G04FTIME-INTERVAL MEASURING
    • G04F5/00Apparatus for producing preselected time intervals for use as timing standards
    • G04F5/02Metronomes
    • G04F5/025Electronic metronomes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • G10H1/42Rhythm comprising tone forming circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/381Manual tempo setting or adjustment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates

Definitions

  • the present invention relates to a tempo setting device for setting a tempo, a control method therefor, and a program.
  • the electronic metronome generally has a configuration in which the user directly sets the time signature and tempo using the controls. Moreover, the time interval of the click signal generated by the operation of the operation element is measured, the corresponding time information is sequentially recorded, and the synchronization signal is generated to be shorter than the time interval of the click signal according to the recorded time information.
  • a signal generator is known (Patent Document 1 below). Furthermore, there is also known an electronic methenome that determines the sounding speed of a metronome from the period of a signal that detects the vibration of an impact striking the body.
  • Patent No. 1532178 gazette JP 2001-141852 A
  • An object of the present invention is to provide a tempo setting device capable of setting a tempo by speech, a control method therefor, and a program.
  • a detection unit detects a predetermined utterance, recognizes a voice and detects an utterance of the detection target, and the detection unit detects the utterance of the detection target twice.
  • a tempo having a tempo determination unit that determines a tempo based on a detection interval of the detected utterance in response to the detection continuously performed above, and a setting unit that sets the tempo determined by the tempo determination unit.
  • a setting device is provided.
  • a control method of a tempo setting device wherein a predetermined utterance is a detection target, and a detection step of recognizing speech and detecting an utterance of the detection target; A tempo determination step of determining a tempo based on a detection interval of the detected utterance in response to the step in which the utterance of the detection target is continuously detected twice or more; and the tempo determined by the tempo determination step And a setting step of setting the tempo.
  • the program causes a computer to execute a control method of a tempo setting device, wherein the control method detects a predetermined utterance and recognizes a voice to detect the detection target. Detecting a speech of the subject, and a tempo determining step of determining a tempo based on a detection interval of the detected speech according to the fact that the speech of the detection target has been detected twice or more consecutively by the detection step And a setting step of setting the tempo determined by the tempo determination step.
  • the tempo can be set by speech.
  • FIG. 1 is a diagram showing an overall configuration of a tempo setting system including a tempo setting device. It is a block diagram of a metronome. It is a block diagram of the principal part for tempo setting. It is a timing chart of an example of tempo setting operation. It is a timing chart of an example of tempo correction operation.
  • 5 is a timing chart of an example of the tempo setting operation in mode 1; 5 is a timing chart of an example of tempo setting operation in mode 2; 15 is a timing chart of an example of the tempo setting operation in mode 3; 15 is a timing chart of an example of tempo setting operation in mode 4; 15 is a timing chart of an example of tempo setting operation in mode 5; 15 is a timing chart of an example of the tempo setting operation in mode 6; It is a flowchart of metronome processing.
  • FIG. 1 is a diagram showing an overall configuration of a tempo setting system including a tempo setting device according to an embodiment of the present invention.
  • the tempo setting device of the present invention is configured as a metronome 30, as an example.
  • the metronome 30 is a mechanical metronome in appearance but has a display function by the display unit 18 in addition to the sound generation function.
  • the metronome 30 can present a metronome pattern (beats and tempo) by the operation of the pendulum 34, and can also present it as a display or voice.
  • the information terminal device 40 such as a PC or a smartphone may be communicably connected to the metronome 30 wirelessly or by wire, and the metronome pattern may be set to the metronome 30 by the information terminal device 40.
  • a sequencer 39 for reproducing accompaniment sounds and the metronome 30 may be communicably connected wirelessly or by wire, and the sequencer 39 may be configured to set the time signature and tempo of the information terminal device 40.
  • the device connected to the information terminal device 40 may have a function of presenting at least tempo by voice, display, visual operation, or the like.
  • FIG. 2 is a block diagram of the metronome 30.
  • the metronome 30 includes a central processing unit (CPU) 10, a timer 11, a read only memory (ROM) 12, a random access memory (RAM) 13, a storage unit 14, a setting operator 17, and a display unit 18.
  • a sound source 19 an effect circuit 20, a sound system 21, a communication I / F (Interface) 16, a drive unit 35, a microphone 36, and a bus 22.
  • the CPU 10 is a central processing unit that controls the entire metronome 30.
  • the timer 11 is a module that measures time.
  • the ROM 12 is a non-volatile memory that stores control programs and various data.
  • the RAM 13 is a volatile memory used as a work area of the CPU 10 and various buffers.
  • the display unit 18 is configured of a liquid crystal display panel or the like, and displays an operation state of the metronome 30, various setting screens, a message for the user, and the like.
  • the setting operator 17 is, for example, an operation module such as an operation button or an operation knob for manually setting the time signature and the tempo.
  • the external storage device 15 is, for example, an external device connected to the metronome 30, and is, for example, a device that stores audio data.
  • the communication I / F 16 is a communication module for communicating with an external device wirelessly or by wire.
  • the communication I / F 16 includes a MIDI (Musical Instrument Digital Interface) interface.
  • the bus 22 transfers data between the units in the metronome 30.
  • the microphone 36 acquires surrounding sound.
  • the sound source 19 generates sound generation data such as a metronome sound based on the control of the CPU 10 based on the metronome pattern stored in the storage unit 14 or the RAM 13.
  • the effect circuit 20 applies the sound effect designated by the setting operator 17 to the sound generation data generated by the sound source 19.
  • the sound system 21 converts the data processed by the effect circuit 20 into an analog signal by a digital / analog converter. Then, the sound system 21 amplifies the analog signal and outputs it from a speaker or the like.
  • the display unit 18 performs display to present time signature and tempo under the control of the CPU 10 based on the metronome pattern.
  • the drive unit 35 swings and drives the pendulum 34 based on control of the CPU 10 based on the metronome pattern.
  • FIG. 3 is a block diagram of the main parts for setting the tempo.
  • This main part has a voice recognition unit 32, a voice controller 31, and a sound generation unit 33.
  • the function of the speech recognition unit 32 is mainly realized by the cooperation of the microphone 36, the ROM 12, the RAM 13 and the CPU 10.
  • the function of the voice controller 31 is mainly realized by the cooperation of the storage unit 14, the ROM 12, the timer 11, the RAM 13 and the CPU 10.
  • the function of the sound generation unit 33 is realized mainly by the cooperation of the ROM 12, the RAM 13, the storage unit 14, the sound source 19, the effect circuit 20, the sound system 21 and the CPU 10.
  • the voice recognition unit 32 recognizes the voice of the reader in the user, for example, the ensemble in a known manner, extracts only the utterance related to the setting of the beat from the recognized voice, and sends it to the voice controller 31.
  • the utterance referred to here is at least one syllable such as “A”, “T”, “I”, etc., and does not have to have a meaning as a word.
  • the voice controller 31 sets the time signature and tempo (or beat interval) as a metronome pattern based on the speech. The details will be described later with reference to FIG.
  • the audio controller 31 generates note-on information for presenting them based on the set beat and tempo.
  • the loudness may be added to the loudness and the weak beat, and the timbre may be different.
  • the sound controller 31 instructs the sound generation unit 33 to generate sound based on the metronome pattern, and the sound generation unit 33 generates a metronome sound.
  • FIG. 4 outlines an operation example of the tempo setting mode.
  • FIG. 4A is a timing chart of an example of the tempo setting operation.
  • FIG. 4B is a timing chart of an example of the tempo correction operation.
  • the metronome 30, for example starts the operation of the tempo setting mode by the operation of the setting operator 17, and is in a standby state where it is possible to detect an utterance.
  • the reader sets the metronome 30 to the tempo setting mode, transmits the start of practice, the rhythm of the music, etc. to the player in advance, and then makes a predetermined utterance to reach the microphone 36.
  • the words "I” and “Ni” are used to indicate the numbers 1 and 2, respectively.
  • the voice controller 31 (hereinafter sometimes abbreviated as the controller 31) produces predetermined metronome sounds (Pi, Po) following the utterance of "one” and "ni” up to the second round.
  • the controller 31 determines that it is 2/4 beat by repeating “1” and “ni”, and determines the beat interval and the beat timing according to the utterance timing of “1” and “ni”.
  • the beat and beat interval become a metronome pattern.
  • the controller 31 causes the metronome sound to be produced in accordance with the metronome pattern after the determination from the time when the second round "ni" is pronounced or a time point later than the beat interval. That is, a two-beat metronome sound (Pi, Po) is produced continuously.
  • the player can start the ensemble from the timing of the first beat after the determination of the metronome pattern.
  • the tone value of one beat in advance is designating as a quarter or a half and limiting the beats that can be determined, for example, two beats and four beats It may be made to distinguish from a double beat of minutes. Note that, particularly when the tempo is slowed down, the backing (1/2 beat etc.) may be presented with a predetermined sound.
  • the leader utters again. For example, as shown in FIG. 4B, it is assumed that the leader utters "one" and “one” again. Then, the controller 31 stops the sound generation according to the metronome pattern that has been determined so far, and instead generates sound that follows the new sound. Then, the controller 31 resets the metronome pattern based on the new utterance, and causes the metronome sound to be produced according to the newly determined metronome pattern. This allows the tempo to be changed midway. Note that it is also possible to change the time signature by changing the utterance to be uttered.
  • the type of tempo setting mode can be set by the user using the setting operator 17.
  • the speech recognition unit 32 as a detection unit recognizes speech and the type of speech (predetermined speech) to be detected is limited.
  • the voice recognition unit 32 detects (extracts) the utterance of the detection target, and ignores (deletes) the utterance that is not the detection target.
  • the controller 31 determines the tempo based on the detection interval of the detected utterance in response to the detection of the utterance of the detection target two or more times in succession (tempo determination unit) and sets the determined tempo. (Setting unit).
  • the speech to be detected may correspond to a numerical value such as "one, two, three, four" or “one, two, three", for example, or “ton", “tan”, etc. unrelated to the number. It may be. Moreover, you may set a combination to the speech of detection object. For example, “one, two, three” may be one set and "one, two, three, four” may be another set. If it is specified that the detection targets be used in combination, the utterance in the combination of detection targets may be the detection target. The combination of the detection target utterance and the detection target may be a predetermined fixed one, or may be arbitrarily set based on the user's instruction. Information indicating the detection target is stored in the storage unit 14 and is also stored in the RAM 13 as necessary.
  • FIG. 5A and 5B are timing charts of an example of the tempo setting operation in modes 1 and 2.
  • FIG. 6A, 6 B, 6 C, and 6 D are timing charts of an example of the tempo setting operation in modes 3, 4, 5, and 6.
  • the controller 31 determines neither the time signature nor the tempo.
  • the voice recognition unit 32 detects “ton” to be detected, the voice recognition unit 32 waits for the subsequent detection of “ton”. Then, when “ton” is continuously detected twice or more, the controller 31 can determine the beat and the tempo. That is, the beat is determined based on the number of times the speech of the detection target is continuously detected.
  • the controller 31 determines the beat from the number of consecutive times up to that.
  • “Ton” continues for three consecutive times, and thereafter, the time Tx has elapsed, so the beat (3/4 beat), tempo and beat timing are determined at the time indicated by the arrow.
  • the time Tx is calculated each time the second and subsequent "tons" are detected.
  • the time Tx is assumed to be slightly longer than (t1 + t2) / 2 and shorter than (t1 + t2).
  • the tempo is calculated by 60 seconds / beat interval TP (seconds).
  • the beat timing is determined to be, for example, timing synchronized with the timing of three consecutive "tons".
  • the controller 31 causes the sound generation unit 33 to perform “presence sound generation” in which the metronome pattern is presented as sound.
  • a circle indicates the timing and strength of “pronounced pronunciation” after the metronome pattern is determined.
  • a large circle indicates a strong beat
  • a small circle indicates a weak beat.
  • three beats are determined, so there are two weak beats in one bar.
  • the mode (tone etc.) of the presentation sound generation may be determined in advance, and may be different between the strong beat and the weak beat.
  • the timbre of the presented pronunciation may be determined according to the time signature and the tempo.
  • the weak beats of the second and third beats are also sounded according to the determined metronome pattern before the strong beat after three consecutive "tons".
  • the ensemble can be performed from the timing of the first beat (strong beat) after the tempo is determined.
  • the timing of any first beat (strong beat) may be used as the ensemble start timing as long as the tempo has been determined. Note that it is not necessary to pronounce weak beats before the first beat after tempo determination. Further, as shown in FIG. 4A, it may be possible to provide a tone generation that follows the "ton" vocalization before tempo determination, but this is not essential.
  • FIG. 5A it has been determined to be three beats, but for example, if "Ton" has four consecutive beats and then the time Tx has elapsed, the beat is determined to be four beats. In the example of FIGS.
  • the presentation sounding is started (weak and strong) from the second beat of the three beats.
  • the presented pronunciation may be started from the first beat (strong or weak) or from a beat other than the second beat (weak or weak).
  • the controller 31 since the utterance of the detection target is only one "ton", for example, the controller 31 does not react in "high”, “high”, and "high” which is not the detection target, and the tempo setting is not performed.
  • a plurality of types of utterances to be detected may be treated, and which one of them is uttered in any order may be treated in the same manner as in the case of “ton”. For example, it is assumed that the detection target is "ton", "hey”, “ho”, and it may be determined to be three beats by three continuations of "hey", “hey", and “ho". Also, four beats may be determined by four consecutive lines of "Hey", “Ton”, “Ton” and "Ho".
  • mode 2 the utterance of the detection target is "ton” as in mode 1, and the utterance for instruction stop is "stop".
  • the controller 31 waits for the subsequent detection of "stop".
  • the beat three-quarter beat
  • the tempo and the beat timing are determined at the time when the "stop” is indicated by the detected arrow after the last three continuous "tons”.
  • the beat interval TP is determined in the same manner as in mode 1.
  • the mode of “pronounced pronunciation” after the metronome pattern is determined is similar to that of mode 1.
  • the leader may speak a "stop” just after the last "ton” (after a time sufficiently shorter than t1).
  • the beat timing is determined in the same manner as in mode 1 and is determined to be, for example, timing synchronized with the timing of three consecutive "tons".
  • the controller 31 may determine the beat timing based on the utterance timing of the "stop” when the utterance of the "stop” is delayed and detected after a sufficiently long time has elapsed from t1 and t2. For example, the timing of the first beat may be determined in synchronization with the “stop” timing.
  • Mode 2 may be combined with mode 1. For example, when an utterance for instruction stop is detected before time Tx has elapsed from the last "ton”, the processing of mode 2 is applied, and from the last "ton", time Tx is left without an utterance for instruction stop. The processing described in mode 1 may be applied when e.
  • the controller 31 waits for the detection of the speech to be detected thereafter, when “1” indicating the leading speech is detected. At this point in time, it has not been determined which of the above seven sets is applicable. Then, after “I”, “N” and “San”, if “Yon” following the turn is not detected even after the time Tx has elapsed, the beat is taken from the number of consecutive times (or the last utterance) until then. Decide. In the example of FIG. 6A, since the time Tx has passed after "san", the beat (3/4 beat), the tempo and the beat timing are determined at the time indicated by the arrow. The beat interval TP and the beat timing are determined in the same manner as in mode 1.
  • the mode of “pronounced pronunciation” after the metronome pattern is determined is similar to that of mode 1.
  • the last utterance since the last utterance is "san", it turns out that it is triple time.
  • the last utterance if the last utterance is "Yon”, it becomes four beats.
  • the tempo and beat are determined in response to the utterances corresponding to the predetermined combination being detected in a predetermined order.
  • the combination of utterances includes a combination of utterances that are not necessarily associated with numerical values for the user. For example, if "Say” and “No” consisting of two utterances are combined and “Say” is set as the first utterance, it can be treated in the same way as “Ichi” and "Nii". In addition, the modification described in mode 1 can be applied as appropriate.
  • mode 3 not only "one, two, three, four" but also "one, two, three” etc. may be detected as a combination of utterances, or both of them may be detected in combination. Therefore, among the plurality of combinations of the utterances of the detection target, ones having different leading utterances may be mixed. For example, in one set, “1” is at the top, but in another set, “one” is at the top. Then, when an utterance corresponding to the top of any combination of the utterances of the detection target is detected, the controller 31 waits for detection of the second and subsequent utterances of the combination to which the utterance belongs, and the utterances are sequentially detected. If so, determine the tempo etc.
  • mode 4 the utterance or combination of the detection target is the same as that in mode 3, and the utterance for instruction stop is "stop".
  • the controller 31 waits for the detection of the speech to be detected thereafter, when “1” indicating the leading speech is detected. At this point in time, it has not been determined which of the above seven sets is applicable. Then, the controller 31 determines the beat (3/4 beat), the tempo and the beat timing at the time when the “stop” is indicated by an arrow after “1”, “ni” and “san”.
  • the beat interval TP and the beat timing are determined in the same manner as in mode 1.
  • the mode of “pronounced pronunciation” after the metronome pattern is determined is similar to that of mode 1.
  • the modification described in mode 2 can be applied as appropriate.
  • mode 5 the utterance and combination of the detection target are the same as in mode 3.
  • the controller 31 waits for the utterance corresponding to the beginning of the utterances belonging to the combination to be detected again, and determines the tempo and the like. As shown in FIG. 6C, it is assumed that the leading "Ichi” is uttered again after the continuous utterance of "Ichi" "ni” "san". Then, the controller 31 determines the beat (three-quarter beat), the tempo, and the beat timing at the time indicated by the arrow from the speech order of "san" which is the speech immediately before that.
  • the utterance indicating the first beat is The beat is determined based on the utterance (Ms.) indicating the beat before being detected again.
  • TP (t1 + t2 + t3) / 3.
  • mode 6 In mode 6 (FIG. 6D), it is assumed that the beat is set in the standby state.
  • the time signature can be set by the user using the setting operator 17.
  • the utterance and combination of the detection target are the same as in mode 3.
  • the time has been set to three quarters in advance. Therefore, the last utterance is "san".
  • the controller 31 determines the tempo and the beat timing at the time when the last "san" is shown by the arrow uttered.
  • the beat interval TP and the beat timing are determined in the same manner as in mode 1.
  • the mode of “pronounced pronunciation” after the metronome pattern is determined is similar to that of mode 1. Note that, for example, “Say” and “No” consisting of two utterances are combined, and the setting of beats is set to be two beats, and tempo and beat timing are determined when “No” is uttered following “Say”. May be In that case, the beat interval TP is determined by the time interval between "Say” and "No".
  • a periodicity mode for determining the tempo based on the speech detection interval is provided. It is also good. For example, the controller 31 determines that there is periodicity when the same repetition of the utterance of the detection target continues for two or more sets. Alternatively, the controller 31 determines that there is periodicity when the pattern “the predetermined number of other utterances is performed after the specific utterance continues” twice or more. In addition to this, continuous speech may be compared with predetermined various rules to analyze repeatability and to determine periodicity.
  • the controller 31 detects utterances of detection targets other than “ton” in random order, and then detects a second “ton”. Then, the controller 31 determines the beat based on the number of utterances before the second "ton” is detected again. In addition to this, only the last utterance may be decided.
  • the controller 31 determines the time signature based on the number of utterances up to the tail utterance when the tail utterance is detected after the utterance of the detection target is detected in random order.
  • the controller 31 determines the time signature based on the number of utterances up to the tail utterance when the tail utterance is detected after the utterance of the detection target is detected in random order.
  • the number of utterances up to the tail speech may be determined based on
  • Tempo correction as shown in FIG. 4B is applicable to each tempo setting mode.
  • the implementation of tempo correction is based on the premise that tempo has been set.
  • the controller 31 corrects the tempo based on the newly detected speech detection interval in response to the fact that the speech of the detection target is newly detected twice or more consecutively. For example, in mode 1 (FIG. 5A), when “ton” is newly detected during implementation of the presentation sound, the controller 31 temporarily stops the presentation sound generation based on the metronome pattern that has been set until then and stands by. The state shifts to the same operation as when "ton" is detected.
  • the controller 31 corrects the tempo based on the detected interval of the detected utterances. For example, in mode 5 (FIG. 6C), when “I” is newly detected during implementation of the presentation sound generation, the controller 31 temporarily suspends the presentation sound generation based on the metronome pattern which has been set up to that time and stands by. The state shifts to the same operation as when "one" is detected. In the periodicity mode, the controller 31 corrects the tempo based on the newly detected speech detection interval when the detection order indicating the periodicity of the speech corresponding to the predetermined combination is newly detected. .
  • FIG. 7 is a flowchart of metronome processing. This process is realized by the CPU 10 reading out the program stored in the ROM 12 to the ROM 12 and executing the program. This process is started when an operation start of the tempo setting mode is instructed.
  • the CPU 10 executes initial setting (step S101). In this initial setting, the tempo setting mode type setting, the detection target utterance setting, the combination setting, and the timbre setting, as well as the utterance order setting in the combination, and the time signature setting in mode 6 as needed. Etc. Next, the CPU 10 determines whether an utterance of a detection target is detected (step S102), and when an utterance of the detection target is detected, acquires the detection timing (step S106). Then, the CPU 10 clears the determination buffer stored in the RAM 13 (step S107). The determination buffer is a register for recording the detected speech.
  • the CPU 10 converts the utterance detected this time into a text (step S108), and determines whether or not the presentation sounding should be ended (step S109).
  • an utterance for example, end, end, etc.
  • the end instruction may be issued by a predetermined operation by the setting operator 17.
  • the CPU 10 determines that the presentation sounding should be ended, the CPU 10 ends the processing of FIG. 7.
  • the CPU 10 additionally stores the speech detected at this time and converted into text and information indicating the detection timing in the determination buffer (step S110).
  • the CPU 10 determines whether the number of utterances stored in the determination buffer is 2 or more (step S111). If the number of utterances stored in the determination buffer is less than 2, the CPU 10 executes other processing (step S112). In the “other process”, the CPU 10 executes, for example, a process such as sounding following the current utterance. Next, the CPU 10 continues to determine again whether or not an utterance to be detected has been detected (step S113). Then, when an utterance of a detection target is detected, the CPU 10 executes other processing (step S114), and returns the processing to step S108. Also in this "other processing", the CPU 10 executes, for example, processing such as sounding to follow the utterance detected anew.
  • step S111 determines whether the number of utterances stored in the determination buffer is two or more.
  • the CPU 10 determines whether the tempo can be determined from the two or more utterances stored (step S115).
  • mode 1 FOG. 5A
  • mode 2 it is determined that the tempo can be determined when the time Tx has elapsed after the last (third) utterance of continuous "ton”.
  • the periodic mode it is determined that the tempo can be determined if the presence of periodicity with respect to the continuous speech is detected.
  • step S112 the CPU 10 determines a metronome pattern according to the mode. For example, in modes 1 to 5, the CPU 10 determines time signature, tempo and beat timing, and in mode 6, determines tempo and beat timing. The determined metronome pattern is stored in the RAM 13. Thereafter, the process returns to step S103.
  • step S102 when the speech of the detection target is not detected, it is determined whether or not the metronome sound generation timing has come.
  • the CPU 10 acquires the type of sound generation (for example, whether it is for strong beat or weak beat) (step S104) and generates the metronome sound according to the type of sound generation (step S104) S105), the process returns to step S102.
  • the type of sound generation for example, whether it is for strong beat or weak beat
  • the tempo is determined based on the detection interval of the utterance in response to the detection of the utterance of the detection target two or more times in succession, and the set metronome pattern is presented. For example, the tempo is determined in response to the utterances corresponding to the predetermined combination being detected in a predetermined order. Alternatively, the tempo is determined when the detection order of the utterances corresponding to the predetermined combination indicates periodicity. Therefore, the tempo can be set by the utterance, and the complicated operation of the operator is not required.
  • the meter is determined in response to the detection of the utterances corresponding to the predetermined combination in a predetermined order.
  • the time signature is determined based on the number of times the speech of the detection target is continuously detected.
  • the beat is determined based on the utterance indicating the previous beat.
  • the tempo and beat can be corrected, which is convenient.
  • modes 1 to 6 and the periodicity mode are exemplified as the tempo setting mode, but modes other than these can be set. Also, as long as no contradiction arises, multiple modes may be applied simultaneously.
  • the metronome pattern may be presented by display, action, or a combination thereof other than presentation by sound.
  • utterance of a detection target it may be made to be able to detect in consideration of "speaking utterance”. For example, different utterances meaning the same number may be treated as the same utterance. For example, “Yon” may be uttered as “Shi”, and “Nana” may be uttered as "Shichi”.
  • the meaning of the command may be understood, and instructions such as setting or correction of the tempo, volume, timbre, and the like by the command may be performed.
  • the sequencer 39 also includes a device for instrument practice assist, a karaoke device containing sequence data of songs from the beginning, and the like.
  • the sequencer 39 may be configured to be able to perform repetitive setting, jumping, setting of a rhythm pattern, an accompaniment pattern, and the like based on the detection of speech.
  • reproduction of sequence data may be performed, or the reproduction tempo (or reproduction speed) may be corrected during reproduction. .
  • the start of the device When the present invention is applied to the metronome 30 or the information terminal device 40, the start of the device, the start of the operation of the tempo setting mode, the initial setting in step S101 of FIG.
  • the presentation device connected thereto is not limited to the metronome 30 or the sequencer 39.
  • the application executed by the information terminal device 40 may not be originally installed in the information terminal device 40, and may be downloaded and installed after the fact.
  • the storage medium storing the control program represented by the software for achieving the present invention may be read out to the present instrument to achieve the same effect, in which case, the storage medium is read from the storage medium.
  • the program code itself implements the novel functions of the present invention, and the non-transitory computer readable recording medium storing the program code constitutes the present invention.
  • the program code may be supplied via a transmission medium or the like, in which case the program code itself constitutes the present invention.
  • ROMs, floppy disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, magnetic tapes, non-volatile memory cards, etc. can be used as storage media in these cases.
  • non-transitory computer readable recording medium is a volatile memory (for example, a server or client internal to the computer system when the program is transmitted via a network such as the Internet or a communication line such as a telephone line) It also includes one that holds a program for a fixed time, such as a dynamic random access memory (DRAM).
  • DRAM dynamic random access memory
  • Controller temporary determination unit, setting unit, meter determination unit
  • Speech recognition unit detection unit
  • Pronunciation section presentation section

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

発話によりテンポを設定することができるテンポ設定装置及びその制御方法、プログラムを提供する。音声認識部32は、音声を認識して検知対象の発話を検知する。コントローラ31は、検知対象の発話が2回以上続けて検知されたことに応じて、検知された発話の検知間隔に基づいてテンポを決定し、決定されたテンポを設定する。

Description

テンポ設定装置及びその制御方法、プログラム
 本発明は、テンポを設定するテンポ設定装置及びその制御方法、プログラムに関する。
 電子式のメトロノームは、操作子を用いてユーザが拍子とテンポを直接設定する構成が一般的である。また、操作子の操作で発生するクリック信号の時間間隔を計測し、それに対応する時間情報を順に記録し、記録した時間情報に応じて、クリック信号の時間間隔よりも短い同期信号を発生させる同期信号発生装置が知られている(下記特許文献1)。さらに、本体を叩いた衝撃の振動を検出した信号の周期から、メトロノームの発音速度を決定する電子メトノロームも知られている。
特許第1532178号公報 特開2001-141852号公報
 しかしながら、上記従来技術によれば、テンポを設定するために、ユーザは手や指等を用いて何らかの操作行為を行う必要がある。そのため、例えば合奏において、リーダーが演奏曲の変更のためにテンポ設定を変更したい場合、いちいちテンポ発生装置に近づいて操作する必要があり、面倒である。
 本発明の目的は、発話によりテンポを設定することができるテンポ設定装置及びその制御方法、プログラムを提供することである。
 上記目的を達成するために本発明によれば、所定の発話を検知対象とし、音声を認識して前記検知対象の発話を検知する検知部と、前記検知部により前記検知対象の発話が2回以上続けて検知されたことに応じて、前記検知された発話の検知間隔に基づいてテンポを決定するテンポ決定部と、前記テンポ決定部により決定されたテンポを設定する設定部と、を有するテンポ設定装置が提供される。
 上記目的を達成するために本発明によれば、テンポ設定装置の制御方法であって、所定の発話を検知対象とし、音声を認識して前記検知対象の発話を検知する検知ステップと、前記検知ステップにより前記検知対象の発話が2回以上続けて検知されたことに応じて、前記検知された発話の検知間隔に基づいてテンポを決定するテンポ決定ステップと、前記テンポ決定ステップにより決定されたテンポを設定する設定ステップと、を有するテンポ設定装置の制御方法が提供される。
 上記目的を達成するために本発明によれば、テンポ設定装置の制御方法をコンピュータに実行させるプログラムであって、前記制御方法は、所定の発話を検知対象とし、音声を認識して前記検知対象の発話を検知する検知ステップと、前記検知ステップにより前記検知対象の発話が2回以上続けて検知されたことに応じて、前記検知された発話の検知間隔に基づいてテンポを決定するテンポ決定ステップと、前記テンポ決定ステップにより決定されたテンポを設定する設定ステップと、を有するプログラムが提供される。
 本発明によれば、発話によりテンポを設定することができる。
テンポ設定装置を含むテンポ設定システムの全体構成を示す図である。 メトロノームのブロック図である。 テンポ設定のための主要部のブロック図である。 テンポ設定動作例のタイミングチャートである。 テンポ修正動作例のタイミングチャートである。 モード1におけるテンポ設定動作例のタイミングチャートである。 モード2におけるテンポ設定動作例のタイミングチャートである。 モード3におけるテンポ設定動作例のタイミングチャートである。 モード4におけるテンポ設定動作例のタイミングチャートである。 モード5におけるテンポ設定動作例のタイミングチャートである。 モード6におけるテンポ設定動作例のタイミングチャートである。 メトロノーム処理のフローチャートである。
 以下、図面を参照して本発明の実施の形態を説明する。
 図1は、本発明の一実施の形態に係るテンポ設定装置を含むテンポ設定システムの全体構成を示す図である。本発明のテンポ設定装置は一例として、メトロノーム30として構成される。メトロノーム30は、外観が機械式メトロノームであるが、発音機能のほか、表示部18による表示機能を有する。メトロノーム30は、メトロノームパターン(拍子及びテンポ)を振り子34の動作で提示できるほか、表示または音声でも提示する機能を有する。なお、PCやスマートフォン等の情報端末装置40とメトロノーム30とを無線または有線で通信可能に接続し、メトロノーム30に対して情報端末装置40でメトロノームパターンの設定を行えるシステムとしてもよい。あるいは、伴奏音等を再生するシーケンサ39とメトロノーム30とを無線または有線で通信可能に接続し、シーケンサ39に対して情報端末装置40で拍子やテンポを設定できるシステムとしてもよい。情報端末装置40に本発明を適用する場合に情報端末装置40と接続される装置は、少なくともテンポを音声や表示や可視動作等により提示する機能を有すればよい。以降、本発明を主としてメトロノーム30単体で実現した例を説明する。
 図2は、メトロノーム30のブロック図である。メトロノーム30は、CPU(Central Processing Unit)10と、タイマ11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、記憶部14と、設定操作子17と、表示部18と、音源19と、効果回路20と、サウンドシステム21と、通信I/F(Interface)16と、駆動部35と、マイク36と、バス22と、を備える。CPU10は、メトロノーム30全体の制御を行う中央処理装置である。タイマ11は、時間を計測するモジュールである。ROM12は制御プログラムや各種のデータなどを格納する不揮発性のメモリである。RAM13はCPU10のワーク領域及び各種のバッファなどとして使用される揮発性のメモリである。表示部18は、液晶ディスプレイパネルなどで構成され、メトロノーム30の動作状態、各種設定画面、ユーザに対するメッセージなどを表示する。
 設定操作子17は、例えば、拍子やテンポを手動で設定するための操作ボタンや操作つまみなどの操作モジュールである。外部記憶装置15は、例えば、メトロノーム30に接続される外部機器であり、例えば、音声データを記憶する装置である。通信I/F16は、外部機器と無線または有線で通信するための通信モジュールである。通信I/F16には、MIDI(Musical Instrument Digital Interface)インターフェイスが含まれる。バス22はメトロノーム30における各部の間のデータ転送を行う。マイク36は周囲の音声を取得する。
 音源19は、記憶部14やRAM13に記憶されたメトロノームパターンに基づいて、CPU10の制御の基で、メトロノーム音等の発音用データを生成する。効果回路20は、音源19が生成した発音用データに対して、設定操作子17により指定された音響効果を適用する。サウンドシステム21は、効果回路20による処理後のデータを、デジタル/アナログ変換器によりアナログ信号に変換する。そして、サウンドシステム21は、アナログ信号を増幅してスピーカなどから出力する。表示部18は、メトロノームパターンに基づいて、CPU10の制御の基で、拍子やテンポを提示するために表示を行う。駆動部35は、メトロノームパターンに基づいて、CPU10の制御の基で、振り子34を揺動駆動する。
 次に、ユーザの発話からテンポを設定する方法について説明する。図3は、テンポ設定のための主要部のブロック図である。この主要部は、音声認識部32、音声コントローラ31及び発音部33を有する。音声認識部32の機能は、主としてマイク36、ROM12、RAM13及びCPU10の協働により実現される。音声コントローラ31の機能は、主として記憶部14、ROM12、タイマ11、RAM13及びCPU10の協働により実現される。発音部33の機能は、主としてROM12、RAM13、記憶部14、音源19、効果回路20、サウンドシステム21及びCPU10の協働により実現される。
 テンポ設定モードにおいて、音声認識部32は、ユーザ、例えば合奏におけるリーダーの声を公知の手法により認識し、認識した音声から拍の設定に関する発話だけを抽出し、音声コントローラ31に送る。ここでいう発話とは、「ア」、「トン」や「いち」等、少なくとも1つの音節から成るものであり、言葉としての意味を有する必要はない。音声コントローラ31は、発話に基づきメトロノームパターンとして拍子及びテンポ(ないし拍間隔)を設定する。その詳細は図5以降で後述する。音声コントローラ31は、設定した拍子及びテンポに基づき、それらを提示するためのノートオンの情報を生成する。その際、強拍と弱拍とで音量に強弱を付け、さらには音色を異ならせてもよい。そして音声コントローラ31は、発音部33に対してメトロノームパターンに基づく発音を指示し、発音部33がメトロノーム音を発音する。
 次に、図4で、テンポ設定モードの動作例を概説する。図4Aは、テンポ設定動作例のタイミングチャートである。図4Bは、テンポ修正動作例のタイミングチャートである。メトロノーム30は、例えば設定操作子17の操作によりテンポ設定モードの動作を開始し、発話の検知が可能なスタンバイ状態となる。
 テンポ設定動作例(図4A)では、リーダーは、メトロノーム30をテンポ設定モードに設定し、練習開始と曲のリズム等を事前に合奏者に伝えてから、マイク36に届くように、所定の発話として数字の1、2を示す「いち」、「に」を発声する。2巡目までの「いち」、「に」の発声に追従して、音声コントローラ31(以下、コントローラ31と略記することもある)は所定のメトロノーム音(Pi、Po)を発音させる。コントローラ31は、「いち」、「に」の繰り返しにより4分の2拍子であると決定すると共に、「いち」、「に」の発声タイミングに応じて拍間隔及び拍タイミングを決定する。拍子及び拍間隔(またはテンポ)がメトロノームパターンとなる。そしてコントローラ31は、2巡目の「に」の発声時点またはそれより拍間隔だけ後の時点から、決定後のメトロノームパターンに従ってメトロノーム音を発音させる。すなわち、2拍子のメトロノーム音(Pi、Po)が連続して発音される。合奏者は、メトロノームパターンの決定以降の先頭拍のタイミングから合奏を開始することができる。なお、メトロノームパターンの決定前に必ずしもメトロノーム音を追従して発音させる必要はない。すなわち、図4Aの例では、メトロノームパターンが決定される前段階からメトロノーム音(Pi、Po)が発生されるとしているが、これらのメトロノーム音の発音は、メトロノームパターンが決定された後に開始されるようにしてもよい。
 なお、予め、1つの拍の音価を、4分の1、または2分の1、のように指定しておき、決定され得る拍子を限定することで、例えば、2分の2拍子と4分の2拍子とが区別されるようにしてもよい。なお、テンポが遅くなる等の場合には特に、裏打ち(1/2拍等)を所定の音で提示するようにしてもよい。
 2拍子のメトロノーム音(Pi、Po)が連続して発音されている最中に、テンポ等を変更したい場合は、リーダーは改めて発声する。例えば、図4Bに示すように、リーダーが再び「いち」、「に」と発声したとする。すると、コントローラ31は、それまで決定されていたメトロノームパターンに従った発音を停止し、代わりに、新たな発声に追従する発音をする。そしてコントローラ31は、新たな発声に基づきメトロノームパターンを設定し直し、新たに決定したメトロノームパターンに従ってメトロノーム音を発音させる。これにより、テンポを途中変更できる。なお、発声する発話を変えて、拍子を変更することも可能である。
 次に、各種のテンポ設定モードに応じたメトロノームパターンの設定態様を図5、図6で説明する。テンポ設定モードには複数種類が有り、そのうちモード1~モード6を例示する。テンポ設定モードの種類は、ユーザが設定操作子17で設定できる。検知部としての音声認識部32が、音声を認識して検知の対象とする発話の種類(所定の発話)は限定されている。音声認識部32は検知対象の発話を検知(抽出)し、検知対象でない発話を無視(削除)する。コントローラ31は、検知対象の発話が2回以上続けて検知されたことに応じて、検知された発話の検知間隔に基づいてテンポを決定すると共に(テンポ決定部)、決定されたテンポを設定する(設定部)。
 検知対象の発話は、例えば、「いち、に、さん、よん」や「ワン、ツー、スリー」のように数値と対応するものでもよいし、数字と無関係な「トン」、「タン」等であってもよい。また、検知対象の発話に組み合わせを設定してもよい。例えば、「いち、に、さん」を1つの組とし、「ワン、ツー、スリー、フォー」を別の1つの組としてもよい。検知対象を組み合わせで用いることが指定されている場合は、検知対象の組み合わせ内の発話を検知対象としてもよい。検知対象の発話や検知対象の組み合わせは、予め定めた固定のものでもよいが、ユーザの指示に基づき任意に設定されるようにしてもよい。検知対象を示す情報は記憶部14に記憶され、必要に応じてRAM13にも記憶される。
 図5A、Bは、モード1、2におけるテンポ設定動作例のタイミングチャートである。図6A、B、C、Dは、モード3、4、5、6におけるテンポ設定動作例のタイミングチャートである。
 まず、モード1(図5A)では、検知対象の発話は、「トン」の1つだけとする。モード1の動作開始直後のスタンバイ状態では、コントローラ31は、拍子もテンポも決定していない。音声認識部32により検知対象である「トン」が検知されると、音声認識部32は、それ以降の「トン」の検知を待つ。そして、「トン」が続けて2回以上検知されるとコントローラ31は拍子及びテンポを決定することが可能となる。すなわち、検知対象の発話が続けて検知された回数に基づいて拍子が決定される。例えば、コントローラ31は、連続する最後の「トン」から時間Txが経過しても次の「トン」が検知されないと、それまでの連続回数から拍子を決定する。図5Aの例では、「トン」が3連続し、その後、時間Txが経過したので、矢印で示す時点で、拍子(4分の3拍子)とテンポと拍タイミングとが決定される。
 時間Txは、2つ目以降の「トン」が検知される度に算出される。例えば、3つ目の「トン」から経過を待つ場合の時間Txは、Tx={(t1+t2)/2}+αにより算出される(αは正の値)。時間Txは、(t1+t2)/2より少し長く、(t1+t2)より短い時間であるとする。なお、2つ目の「トン」から経過を待つ場合の時間Txは、Tx=t1+αにより算出される。テンポは、60秒/拍間隔TP(秒)により算出される。ここで拍間隔TPは、一例として各発話(「トン」)の発声間隔の平均であり、TP=(t1+t2)/2により算出される。拍タイミングは、例えば、3連続した「トン」のタイミングと同期するタイミングに決定される。
 このようにしてメトロノームパターンが確定すると、コントローラ31は、発音部33によりメトロノームパターンを音で提示する「提示発音」を実施する。なお、拍タイミングを3連続した「トン」のタイミングと同期させることは必須でない。例えば、テンポ決定後の所定の発話(「スタート」等)によって、「スタート」を1拍目として提示発音が開始されるようにしてもよい。
 図5、図6の各図において、○印(白丸)は、メトロノームパターンが決定された後の「提示発音」のタイミングと強さを示す。大きい○(白丸)が強拍、小さい○(白丸)が弱拍を示す。図5Aの例では3拍子と決定されたので、1小節に弱拍が2つである。なお、提示発音の態様(音色等)は予め定めたとしてもよく、強拍と弱拍とで異ならせてもよい。また、提示発音の音色を拍子やテンポに応じて決定してもよい。図5Aの例では、3連続した「トン」の後、強拍の前に、2拍目と3拍目の弱拍も、決定したメトロノームパターン通りに発音されている。従って、テンポ決定後の最初の1拍目(強拍)のタイミングから合奏が可能となる。なお、テンポ決定後であれば、いずれの1拍目(強拍)のタイミングを合奏開始タイミングとしてもよい。なお、テンポ決定後の最初の1拍目より前の弱拍の発音は必須でない。また、図4Aで示したような、テンポ決定前の、「トン」の発声に追従する発音を設けてもよいが、必須でない。図5Aでは3拍子と決定されたが、例えば、「トン」が4連続し、その後、時間Txが経過したならば、拍子は4分の4拍子と決定される。なお、図5A、図5Bの例では、3拍子のうちの2拍目から提示発音が開始される(弱弱強)ことを示している。しかし提示発音が、先頭拍から開始されたり(強弱弱)、2拍目以外の拍から開始されたり(弱強弱弱)するようにしてもよい。
 図5Aの例では、検知対象の発話を「トン」の1つだけとしたので、例えば、検知対象でない「ハイ」「ハイ」「ハイ」ではコントローラ31は反応せず、テンポ設定を行わない。なお、検知対象の発話を複数種類とし、そのうちどれがどの順番で発声されても、「トン」の場合と同様に扱うようにしてもよい。例えば、検知対象が「トン」「ヘイ」「ホー」であるとし、「ヘイ」「ヘイ」「ホー」の3連続によって3拍子と決定されてもよい。また、「ヘイ」「トン」「トン」「ホー」の4連続によって4拍子と決定されてもよい。
 モード2(図5B)では、検知対象の発話はモード1と同様に「トン」とし、指示停止用の発話を「ストップ」とする。コントローラ31は、「トン」が2以上検知されると、その後の「ストップ」の検知を待つ。図5Bの例では、3連続した最後の「トン」の後、「ストップ」が検知された矢印で示す時点で、拍子(4分の3拍子)とテンポと拍タイミングとが決定される。拍間隔TPは、モード1の場合と同様に決定される。メトロノームパターンが決定された後の「提示発音」の態様はモード1と同様である。リーダーは、「ストップ」を最後の「トン」の直後(t1より十分に短い時間の後)に発声してもよい。拍タイミングは、モード1と同様に決定され、例えば3連続した「トン」のタイミングと同期するタイミングに決定される。なお、コントローラ31は、「ストップ」の発声が遅れ、t1やt2よりも十分に長い時間経過の後に検知された場合は、「ストップ」の発声タイミングに基づいて拍タイミングを決定してもよい。例えば、「ストップ」のタイミングに同期させて1拍目のタイミングを決定してもよい。
 なお、指示停止用の発話は「ストップ」に限らず、他の種類、例えば「ハイ」でもよい。また、指示停止用の発話も複数種類設定し、それらのうちどれが検知されても有効と扱ってもよい。なお、モード2をモード1と組み合わせてもよい。例えば、最後の「トン」から時間Txが経過する前に指示停止用の発話が検知されるとモード2の処理を適用し、最後の「トン」から、指示停止用の発話がないまま時間Txが経過するとモード1で説明した処理を適用するようにしてもよい。
 モード3(図6A)では、検知対象の発話は、数字の1~8を示す、「いち」「に」「さん」「よん」「ご」「ろく」「なな」「はち」であるとする。そして検知対象の発話の所定の組み合わせが、第1拍から所定拍(例えば、8拍)までの各拍を示す発話から成るとする。この組み合わせとして次の第1組~第7組が定められているとする。第1組=「いち」「に」、第2組=「いち」「に」「さん」、第3組=「いち」「に」「さん」「よん」・・・第7組=「いち」「に」・・・「はち」。各組において、発話の順番が予め定められているとし、「いち」は先頭の発話に該当する。組に属する検知対象の発話の数は2以上であればよく、8個に限らない。
 コントローラ31は、先頭の発話を示す「いち」が検知されると、その後の検知対象の発話の検知を待つ。この時点で、上記7組のうちどの組が該当しているかは確定していない。そしてコントローラ31は、「いち」「に」「さん」の後、時間Txが経過しても順番が後続する「よん」が検知されないと、それまでの連続回数(あるいは、最後の発話)から拍子を決定する。図6Aの例では、「さん」の後、時間Txが経過したので、矢印で示す時点で、拍子(4分の3拍子)とテンポと拍タイミングとが決定される。拍間隔TPや拍タイミングは、モード1の場合と同様に決定される。メトロノームパターンが決定された後の「提示発音」の態様はモード1と同様である。この例では、最後の発話が「さん」であるので3拍子であることがわかる。なお、最後の発話が「よん」であったなら4拍子となる。このように、所定の組み合わせに該当する発話が予め定められた順番通りに検知されたことに応じて、テンポ及び拍子が決定される。なお、発話の組み合わせには、ユーザにとっては必ずしも数値を連想しない発話から成るものも含まれる。例えば、2発話から成る「セー」「ノー」を組み合わせとし、「セー」を先頭の発話に設定すれば、「いち」「に」と同様に扱うこともできる。その他、モード1で説明した変形例を適宜適用できる。
 なお、モード3において、発話の組み合わせとして「いち、に、さん、よん」に限らず、「ワン、ツー、スリー」等を検知対象としてもよいし、これら双方を検知対象の組み合わせとしてもよい。従って、検知対象の発話の複数の組み合わせのうち、先頭の発話が異なるものが混在してもよい。例えば、ある組においては「いち」が先頭であるが、他の組においては、「ワン」が先頭であるとする。そして、コントローラ31は、検知対象の発話のうち、いずれかの組み合わせにおける先頭に該当する発話が検知されたら、その発話が属する組み合わせの2番目以降の発話の検知を待ち、発話が順番に検知されればテンポ等を決定する。
 モード4(図6B)では、検知対象の発話や組み合わせはモード3と同様とし、指示停止用の発話を「ストップ」とする。コントローラ31は、先頭の発話を示す「いち」が検知されると、その後の検知対象の発話の検知を待つ。この時点で、上記7組のうちどの組が該当しているかは確定していない。そしてコントローラ31は、「いち」「に」「さん」の後、「ストップ」が検知された矢印で示す時点で、拍子(4分の3拍子)とテンポと拍タイミングとが決定される。拍間隔TPや拍タイミングは、モード1の場合と同様に決定される。メトロノームパターンが決定された後の「提示発音」の態様はモード1と同様である。その他、モード2で説明した変形例を適宜適用できる。
 モード5(図6C)では、検知対象の発話や組み合わせはモード3と同様とする。モード5では、コントローラ31は、組み合わせに属する発話のうち先頭に該当する発話が再び検知されるのを待ってテンポ等を決定する。図6Cに示すように、「いち」「に」「さん」の連続発話の後、先頭の「いち」が再び発話されたとする。するとコントローラ31は、その直前の発話である「さん」の発話順から、矢印で示す時点で、拍子(4分の3拍子)とテンポと拍タイミングとを決定する。すなわち、第1拍を示す発話(いち)から始まって順番通りに各拍の発話が検知された後、第1拍を示す発話(いち)が再び検知されると、第1拍を示す発話が再び検知される前の拍を示す発話(さん)に基づいて拍子が決定される。拍間隔TPは、一例として各発話の発声間隔の平均であり、TP=(t1+t2+t3)/3により算出される。この例では、2回目の「いち」の直前の発話が「さん」であるので3拍子であることがわかる。なお、2回目の「いち」の直前の発話が「よん」であったなら4拍子となる。拍タイミングは、モード1の場合と同様に決定される。メトロノームパターンが決定された後の「提示発音」の態様はモード1と同様である。
 モード6(図6D)では、スタンバイ状態において拍子が設定されているとする。拍子はユーザが設定操作子17で設定できる。検知対象の発話や組み合わせはモード3と同様とする。図6Dの例では、事前に4分の3拍子と設定されているとする。従って、最後尾の発話は「さん」である。図6Dに示すように、予め定められた順番で「いち」「に」「さん」と最後尾まで連続発話されたとする。するとコントローラ31は、最後の「さん」が発話された矢印で示す時点で、テンポと拍タイミングとを決定する。拍間隔TPや拍タイミングは、モード1の場合と同様に決定される。メトロノームパターンが決定された後の「提示発音」の態様はモード1と同様である。なお、例えば、2発話から成る「セー」「ノー」を組み合わせとし、拍子の設定を2拍子とし、「セー」に続いて「ノー」が発話されるとテンポ及び拍タイミングが決定されるようにしてもよい。その場合、「セー」と「ノー」との時間間隔によって拍間隔TPが決まる。
 ところで、図示はしないが、モード1~6以外にも、所定の組み合わせに該当する発話の検知順が周期性を示す場合に、発話の検知間隔に基づいてテンポを決定する周期性モードを設けてもよい。例えばコントローラ31は、検知対象の発話の同じ繰り返しが2セット以上続いた場合に周期性有りと判定する。あるいは、コントローラ31は、「特定の発話の後、所定回数の他の発話がされる」というパターンが2回以上続いた場合に、周期性有りと判定する。このほか、連続した発話に対し、予め定めた各種のルールと照合して繰り返し性を解析し、周期性を判定してもよい。
 一例として、周期性モードをモード5(図6C)に当てはめて考える。検知対象の組み合わせに属する発話のうち、先頭の発話だけを決めておき、その他の発話の順番を問わない構成としてもよい。例えば、先頭の発話を「トン」とし、その他の発話を「ヘイ」、「ホー」とする。コントローラ31は、「トン」の後、「トン」以外の検知対象の発話が順不同で検知され、その後、2回目の「トン」が検知されたとする。するとコントローラ31は、2回目の「トン」が再び検知される前までの発話回数に基づいて拍子を決定する。このほか、後尾の発話だけ決めておいてもよい。その場合、コントローラ31は、検知対象の発話が順不同で検知された後、後尾の発話が検知されると、後尾の発話までの発話回数に基づいて拍子を決定する。なお、先頭の発話と後尾の発話の双方を決めておき、先頭の発話の後、検知対象の発話が順不同で検知された後、後尾の発話が検知されると、後尾の発話までの発話回数に基づいて拍子を決定するようにしてもよい。
 ところで、図4Bで示したようなテンポ修正は、各テンポ設定モードに適用可能である。テンポ修正の実施は、一旦、テンポが設定されていることが前提となる。コントローラ31は、検知対象の発話が新たに2回以上続けて検知されたことに応じて、新たに検知された発話の検知間隔に基づいてテンポを修正する。例えば、モード1(図5A)で、提示発音の実施中に「トン」が新たに検知されると、コントローラ31は、それまで設定されていたメトロノームパターンに基づく提示発音を一旦停止すると共に、スタンバイ状態で「トン」が検知されたときと同じ動作に移行する。また、所定の組み合わせに該当する発話が予め定められた順番通りに新たに検知されると、コントローラ31は、検知された発話の検知間隔に基づいてテンポを修正する。例えば、モード5(図6C)で、提示発音の実施中に「いち」が新たに検知されると、コントローラ31は、それまで設定されていたメトロノームパターンに基づく提示発音を一旦停止すると共に、スタンバイ状態で「いち」が検知されたときと同じ動作に移行する。なお、周期性モードにおいては、コントローラ31は、所定の組み合わせに該当する発話の周期性を示す検知順が新たに検知されると、新たに検知された発話の検知間隔に基づいてテンポを修正する。
 次に、これまで説明したテンポ設定モードの動作を実現する処理を図7で説明する。図7は、メトロノーム処理のフローチャートである。この処理は、ROM12に格納されているプログラムをCPU10がROM12に読み出して実行することにより実現される。この処理は、テンポ設定モードの動作開始が指示されると開始される。
 まず、CPU10は、初期設定を実行する(ステップS101)。この初期設定では、テンポ設定モードの種類の設定、検知対象の発話の設定、組み合わせの設定、音色設定のほか、必要に応じて組み合わせにおける発話の順番の設定や、モード6の場合の拍子の設定等が行われる。次に、CPU10は、検知対象の発話が検知されたか否かを判別し(ステップS102)、検知対象の発話が検知された場合は、その検知タイミングを取得する(ステップS106)。そしてCPU10は、RAM13に記憶される判定バッファをクリアする(ステップS107)。判定バッファは、検知された発話を記録するためのレジスタである。
 次にCPU10は、今回検知された発話をテキスト化し(ステップS108)、提示発音を終了すべきか否かを判別する(ステップS109)。ここで、リーダーによる所定の終了指示を示す発話(例えば、おわり、エンド等)が検知されると、提示発音を終了すべきと判別される。あるいは、設定操作子17による所定の操作により終了指示がなされるようにしてもよい。そしてCPU10は、提示発音を終了すべきと判別した場合は、図7の処理を終了させる。一方、提示発音を終了すべきでない場合は、CPU10は、今回検知されテキスト化された発話とその検知タイミングを示す情報とを判定バッファに追加記憶させる(ステップS110)。
 次にCPU10は、判定バッファに記憶された発話が2以上であるか否かを判別する(ステップS111)。判定バッファに記憶された発話が2未満である場合は、CPU10は、その他処理を実行する(ステップS112)。この「その他処理」においては、CPU10は、例えば、今回の発話に追従する発音等の処理を実行する。次に、CPU10は、改めて、検知対象の発話が検知されたか否かの判別を継続する(ステップS113)。そしてCPU10は、検知対象の発話が検知されると、その他処理を実行し(ステップS114)、処理をステップS108に戻す。この「その他処理」においても、CPU10は、例えば、改めて検知された発話に追従する発音等の処理を実行する。
 ステップS111での判別の結果、判定バッファに記憶された発話が2以上である場合は、CPU10は、記憶された2以上の発話からテンポを決定可能か否かを判別する(ステップS115)。ここでは、図5、図6で説明した各モードのルールに従って、テンポが決定可能かどうかが判別される。モード1(図5A)を例にとると、連続した「トン」の最後(3つ目)の発話の後、時間Txが経過したことで、テンポが決定可能と判別される。なお、ここで、周期性モードの場合は、連続した発話に対する周期性有りが検知されると、テンポが決定可能と判別される。
 そして、CPU10は、テンポを決定可能でない場合(モード1では「トン」の検知後、時間Txの経過前)は、処理をステップS112に進める一方、テンポを決定可能である場合は、処理をステップS116に進める。ステップS116では、CPU10は、モード応じてメトロノームパターンを決定する。例えば、CPU10は、モード1~5では、拍子とテンポと拍タイミングとを決定し、モード6ではテンポと拍タイミングとを決定する。決定されたメトロノームパターンはRAM13に記憶される。その後、処理はステップS103に戻る。
 ステップS102での判別の結果、検知対象の発話が検知されない場合は、メトロノーム音の発生タイミングとなったか否かを判別する。ここで、メトロノームパターンが既に設定されていて、それに応じた発音をすべきタイミングとなると、メトロノーム音の発生タイミングであると判別される。そしてCPU10は、メトロノーム音の発生タイミングでない場合は、処理をステップS102に戻す。一方、CPU10は、メトロノーム音の発生タイミングである場合は、発音の種別(例えば、強拍用か弱拍用か)を取得し(ステップS104)、発音の種別に従ってメトロノーム音を発音して(ステップS105)、処理をステップS102に戻す。2巡目以降のステップS102で検知対象の発話が検知されると、テンポや拍子が再設定(修正)される。
 本実施の形態によれば、検知対象の発話が2回以上続けて検知されたことに応じて、発話の検知間隔に基づいてテンポが決定され、設定されたメトロノームパターンが提示される。例えば、所定の組み合わせに該当する発話が予め定められた順番通りに検知されたことに応じてテンポが決定される。あるいは、所定の組み合わせに該当する発話の検知順が周期性を示す場合にテンポが決定される。よって、発話によりテンポを設定することができ、操作子の煩雑な操作を要しない。
 また、所定の組み合わせに該当する発話が予め定められた順番通りに検知されたことに応じて拍子が決定される。あるいは、検知対象の発話が続けて検知された回数に基づいて拍子が決定される。あるいは、第1拍を示す発話が再び検知されると、その前の拍を示す発話に基づいて拍子が決定される。これにより、発話により拍子を設定することができ、操作子の煩雑な操作を要しない。
 また、テンポ設定後においても、改めて検知対象の発話を検知すると、テンポや拍子の修正が可能であるので、使い勝手がよい。
 なお、本実施の形態において、テンポ設定モードとしてモード1~6、及び周期性モードを例示したが、これら以外のモードも設定可能である。また、矛盾が生じない限り、複数のモードを同時に適用してもよい。
 なお、上述したように、メトロノームパターンを、音による提示以外にも、表示や動作、またはこれらの組み合わせによって提示してもよい。
 なお、検知対象の発話の検知において、「発話揺れ」を考慮して検知できるようにしてもよい。例えば、同じ数字を意味する異なる発話を同じ発話と扱ってもよい。例えば、「よん」は「し」と発話されてもよく、「なな」は「しち」と発話されても良いとしてもよい。
 なお、検知対象の発話とは別に、コマンドの意味を理解し、コマンドによるテンポや音量や音色等の設定や修正等の指示を行えるようにしてもよい。
 なお、シーケンサ39には、楽器練習アシスト向けの装置や、最初から曲のシーケンスデータが入っているカラオケ装置等も含まれる。シーケンサ39に対し、発話の検知に基づいて、繰り返しの設定やジャンプやリズムパターンや伴奏パターンの設定等を行えるようにしてもよい。また、発話の検知に基づいて決定されたテンポ(乃至再生スピード)に応じて、シーケンスデータの再生が行われたり、再生中に再生テンポ(乃至再生スピード)が修正されたりするようにしてもよい。
 なお、メトロノーム30または情報端末装置40に本発明を適用した場合において、装置の起動、テンポ設定モードの動作の開始、図7のステップS101での初期設定等を、全て発話によって指示できるように構成してもよい。例えば、ユーザは、本発明が適用される装置の名称を発話することで装置を起動させ、テンポ設定モードの動作開始を指示する「メトロノーム」等の発話によってテンポ設定モードを開始させる。その後、ユーザは、所定の発話によって初期設定を行い、その後、上記説明したように検知対象の発話を行う。
 なお、本発明をスマートフォン等の情報端末装置40で実現する場合は、それに接続される提示装置はメトロノーム30やシーケンサ39に限らない。本発明を実現するためのアプリケーションの取得方法は問わない。情報端末装置40で実行されるアプリケーションは、情報端末装置40に当初からインストールされていなくてもよく、事後的にダウンロードされ、インストールされてもよい。
 以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
 なお、本発明を達成するためのソフトウェアによって表される制御プログラムを記憶した記憶媒体を、本楽器に読み出すことによって同様の効果を奏するようにしてもよく、その場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した、非一過性のコンピュータ読み取り可能な記録媒体は本発明を構成することになる。また、プログラムコードを伝送媒体等を介して供給してもよく、その場合は、プログラムコード自体が本発明を構成することになる。なお、これらの場合の記憶媒体としては、ROMのほか、フロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード等を用いることができる。「非一過性のコンピュータ読み取り可能な記録媒体」は、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含む。
31 コントローラ(テンポ決定部、設定部、拍子決定部)
32 音声認識部(検知部)
33 発音部(提示部)

Claims (14)

  1.  所定の発話を検知対象とし、音声を認識して前記検知対象の発話を検知する検知部と、
     前記検知部により前記検知対象の発話が2回以上続けて検知されたことに応じて、前記検知された発話の検知間隔に基づいてテンポを決定するテンポ決定部と、
     前記テンポ決定部により決定されたテンポを設定する設定部と、
    を有するテンポ設定装置。
  2.  前記検知対象の発話は複数あり、
     前記テンポ決定部は、所定の組み合わせに該当する発話が予め定められた順番通りに前記検知部により検知されたことに応じて、前記検知された発話の検知間隔に基づいてテンポを決定する請求項1に記載のテンポ設定装置。
  3.  前記所定の組み合わせは、第1拍から所定拍までの各拍を示す発話から成る組み合わせを含み、
     前記所定の組み合わせに該当する発話が予め定められた順番通りに前記検知部により検知されたことに応じて、拍子を決定する拍子決定部を有し、
     前記設定部は、前記決定されたテンポと共に、前記拍子決定部により決定された拍子を設定する請求項2に記載のテンポ設定装置。
  4.  前記拍子決定部は、前記検知部により、前記第1拍を示す発話から始まって順番通りに各拍の発話が検知された後、前記第1拍を示す発話が再び検知されると、前記第1拍を示す発話が再び検知される前の拍を示す発話に基づいて拍子を決定する請求項3に記載のテンポ設定装置。
  5.  前記検知対象の発話は複数あり、
     前記テンポ決定部は、前記検知部による、所定の組み合わせに該当する発話の検知順が周期性を示す場合に、前記検知された発話の検知間隔に基づいてテンポを決定する請求項1に記載のテンポ設定装置。
  6.  前記検知部により前記検知対象の発話が続けて検知された回数に基づいて拍子を決定する拍子決定部を有し、
     前記設定部は、前記決定されたテンポと共に、前記拍子決定部により決定された拍子を設定する請求項1に記載のテンポ設定装置。
  7.  前記設定部により設定された拍子及びテンポを発音により提示する提示部を有する請求項3、4または6に記載のテンポ設定装置。
  8.  前記提示部は、前記設定された拍子における強拍と弱拍とで発音の態様を異ならせる請求項7に記載のテンポ設定装置。
  9.  前記設定部により設定されたテンポを提示する提示部を有する請求項1~6のいずれか1項に記載のテンポ設定装置。
  10.  前記テンポ決定部は、テンポが設定されている状態で、前記検知部により前記検知対象の発話が新たに2回以上続けて検知されたことに応じて、前記新たに検知された発話の検知間隔に基づいてテンポを修正する請求項1~9のいずれか1項に記載のテンポ設定装置。
  11.  前記テンポ決定部は、テンポが設定されている状態で、前記所定の組み合わせに該当する発話が予め定められた順番通りに前記検知部により新たに検知されたことに応じて、前記新たに検知された発話の検知間隔に基づいてテンポを修正する請求項2~4のいずれか1項に記載のテンポ設定装置。
  12.  前記テンポ決定部は、テンポが設定されている状態で、前記所定の組み合わせに該当する発話の周期性を示す検知順が、前記検知部により新たに検知されたことに応じて、前記新たに検知された発話の検知間隔に基づいてテンポを修正する請求項5に記載のテンポ設定装置。
  13.  テンポ設定装置の制御方法であって、
     所定の発話を検知対象とし、音声を認識して前記検知対象の発話を検知する検知ステップと、
     前記検知ステップにより前記検知対象の発話が2回以上続けて検知されたことに応じて、前記検知された発話の検知間隔に基づいてテンポを決定するテンポ決定ステップと、
     前記テンポ決定ステップにより決定されたテンポを設定する設定ステップと、を有するテンポ設定装置の制御方法。
  14.  テンポ設定装置の制御方法をコンピュータに実行させるプログラムであって、
     前記制御方法は、
     所定の発話を検知対象とし、音声を認識して前記検知対象の発話を検知する検知ステップと、
     前記検知ステップにより前記検知対象の発話が2回以上続けて検知されたことに応じて、前記検知された発話の検知間隔に基づいてテンポを決定するテンポ決定ステップと、
     前記テンポ決定ステップにより決定されたテンポを設定する設定ステップと、を有するプログラム。
PCT/JP2017/038593 2017-10-25 2017-10-25 テンポ設定装置及びその制御方法、プログラム WO2019082321A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019549760A JP6891969B2 (ja) 2017-10-25 2017-10-25 テンポ設定装置及びその制御方法、プログラム
PCT/JP2017/038593 WO2019082321A1 (ja) 2017-10-25 2017-10-25 テンポ設定装置及びその制御方法、プログラム
US16/856,926 US11526134B2 (en) 2017-10-25 2020-04-23 Tempo setting device and control method thereof
JP2021088571A JP2021144238A (ja) 2017-10-25 2021-05-26 発音システム、制御装置及びこれらの制御方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/038593 WO2019082321A1 (ja) 2017-10-25 2017-10-25 テンポ設定装置及びその制御方法、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/856,926 Continuation US11526134B2 (en) 2017-10-25 2020-04-23 Tempo setting device and control method thereof

Publications (1)

Publication Number Publication Date
WO2019082321A1 true WO2019082321A1 (ja) 2019-05-02

Family

ID=66247354

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/038593 WO2019082321A1 (ja) 2017-10-25 2017-10-25 テンポ設定装置及びその制御方法、プログラム

Country Status (3)

Country Link
US (1) US11526134B2 (ja)
JP (2) JP6891969B2 (ja)
WO (1) WO2019082321A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110415669A (zh) * 2019-07-19 2019-11-05 北京字节跳动网络技术有限公司 一种节奏器的实现方法、装置、电子设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082321A1 (ja) * 2017-10-25 2019-05-02 ヤマハ株式会社 テンポ設定装置及びその制御方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57184993U (ja) * 1981-05-18 1982-11-24
JPS57206883A (en) * 1981-06-15 1982-12-18 Casio Comput Co Ltd Electronic metronome
JPS6126097A (ja) * 1984-07-16 1986-02-05 セイコーインスツルメンツ株式会社 音声認識式音程採譜装置
JPH02256096A (ja) * 1989-11-16 1990-10-16 Yamaha Corp 自動演奏機のテンポ設定装置
JPH0863168A (ja) * 1994-08-25 1996-03-08 Matsushita Electric Ind Co Ltd テンポ設定装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4380185A (en) * 1981-11-16 1983-04-19 V-T Rhythms, Inc. Talking metronome
JPH0259487U (ja) * 1988-10-25 1990-05-01
JPH06126097A (ja) 1992-10-14 1994-05-10 Tousei Denki Kk 衣類などの乾燥装置
JPH10301567A (ja) 1997-04-22 1998-11-13 Kawai Musical Instr Mfg Co Ltd 電子楽器の音声制御装置
JP4275762B2 (ja) 1998-03-23 2009-06-10 ヤマハ株式会社 音声指示装置およびカラオケ装置
JP2000172290A (ja) 1998-12-03 2000-06-23 Matsushita Electric Ind Co Ltd Av機器制御装置
JP2001141852A (ja) 1999-11-17 2001-05-25 Seiko Instruments Inc 電子メトロノーム
JP4644893B2 (ja) 2000-01-12 2011-03-09 ヤマハ株式会社 演奏装置
JP4399961B2 (ja) * 2000-06-21 2010-01-20 ヤマハ株式会社 楽譜画面表示装置及び演奏装置
JP2003131695A (ja) 2001-10-25 2003-05-09 Hitachi Ltd 音声認識機器、音声認識機器制御装置、及び音声認識機器制御方法
JP4451174B2 (ja) * 2004-03-15 2010-04-14 セイコーインスツル株式会社 電子式メトロノーム及び電子式メトロノームのテンポの提示方法
WO2007010637A1 (ja) * 2005-07-19 2007-01-25 Kabushiki Kaisha Kawai Gakki Seisakusho テンポ検出装置、コード名検出装置及びプログラム
JP4757704B2 (ja) 2006-05-01 2011-08-24 任天堂株式会社 音楽再生プログラム、音楽再生装置、音楽再生方法及び音楽再生システム
WO2010013752A1 (ja) * 2008-07-29 2010-02-04 ヤマハ株式会社 演奏関連情報出力装置、演奏関連情報出力装置を備えるシステム、及び電子楽器
JP5754141B2 (ja) * 2011-01-13 2015-07-29 富士通株式会社 音声合成装置および音声合成プログラム
JP5895740B2 (ja) * 2012-06-27 2016-03-30 ヤマハ株式会社 歌唱合成を行うための装置およびプログラム
US9202520B1 (en) * 2012-10-17 2015-12-01 Amazon Technologies, Inc. Systems and methods for determining content preferences based on vocal utterances and/or movement by a user
JP2015132696A (ja) 2014-01-10 2015-07-23 ヤマハ株式会社 音声認識方法
KR101859268B1 (ko) * 2016-04-20 2018-05-18 김혜정 영어 단어의 음절과 연동된 악보 제공 시스템
US11195542B2 (en) * 2019-10-31 2021-12-07 Ron Zass Detecting repetitions in audio data
US20180295427A1 (en) * 2017-04-07 2018-10-11 David Leiberman Systems and methods for creating composite videos
WO2019082321A1 (ja) * 2017-10-25 2019-05-02 ヤマハ株式会社 テンポ設定装置及びその制御方法、プログラム
WO2019082320A1 (ja) * 2017-10-25 2019-05-02 ヤマハ株式会社 ソルフェージュの補助装置及びその制御方法、プログラム
US11282534B2 (en) * 2018-08-03 2022-03-22 Sling Media Pvt Ltd Systems and methods for intelligent playback
WO2020136892A1 (ja) * 2018-12-28 2020-07-02 ローランド株式会社 制御装置、電子楽器システム、および制御方法
JP2022006836A (ja) 2020-06-25 2022-01-13 株式会社カネカ 太陽電池ストリング及び太陽電池モジュール
US11651764B2 (en) * 2020-07-02 2023-05-16 Tobrox Computing Limited Methods and systems for synthesizing speech audio

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57184993U (ja) * 1981-05-18 1982-11-24
JPS57206883A (en) * 1981-06-15 1982-12-18 Casio Comput Co Ltd Electronic metronome
JPS6126097A (ja) * 1984-07-16 1986-02-05 セイコーインスツルメンツ株式会社 音声認識式音程採譜装置
JPH02256096A (ja) * 1989-11-16 1990-10-16 Yamaha Corp 自動演奏機のテンポ設定装置
JPH0863168A (ja) * 1994-08-25 1996-03-08 Matsushita Electric Ind Co Ltd テンポ設定装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110415669A (zh) * 2019-07-19 2019-11-05 北京字节跳动网络技术有限公司 一种节奏器的实现方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
JPWO2019082321A1 (ja) 2020-11-26
US11526134B2 (en) 2022-12-13
JP6891969B2 (ja) 2021-06-18
JP2021144238A (ja) 2021-09-24
US20200249633A1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
US10789922B2 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
US20190318712A1 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
JP6485185B2 (ja) 歌唱音合成装置
CN107430849B (zh) 声音控制装置、声音控制方法和存储声音控制程序的计算机可读记录介质
CN110310615B (zh) 唱歌练习装置、唱歌练习方法及存储介质
US20050257667A1 (en) Apparatus and computer program for practicing musical instrument
JP2021144238A (ja) 発音システム、制御装置及びこれらの制御方法、プログラム
WO2018056311A1 (ja) 演奏教習装置及び方法
JP5228315B2 (ja) 自動伴奏生成装置および自動伴奏生成方法を実現するためのプログラム
JP6098422B2 (ja) 情報処理装置、及びプログラム
WO2023058173A1 (ja) 音制御装置およびその制御方法、電子楽器、プログラム
JPH11282483A (ja) カラオケ装置
JP2019132979A (ja) カラオケ装置
JP2001022350A (ja) 波形再生装置
JP6992894B2 (ja) 表示制御方法、表示制御装置およびプログラム
CN115349147A (zh) 音信号生成方法、推定模型训练方法、音信号生成系统及程序
JP6252517B2 (ja) 音声合成装置、及びプログラム
WO2023233856A1 (ja) 音制御装置およびその制御方法、プログラム、電子楽器
WO2018056310A1 (ja) 演奏教習装置及び方法
JP7158331B2 (ja) カラオケ装置
JP3173310B2 (ja) ハーモニー生成装置
US20230419946A1 (en) Sound generation device and control method thereof, program, and electronic musical instrument
JP2002221978A (ja) ボーカルデータ生成装置、ボーカルデータ生成方法および歌唱音合成装置
WO2023058172A1 (ja) 音制御装置およびその制御方法、電子楽器、プログラム
JP3345453B2 (ja) 自動演奏装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17929826

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019549760

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17929826

Country of ref document: EP

Kind code of ref document: A1