CN110310615A - 唱歌练习装置、唱歌练习方法及存储介质 - Google Patents
唱歌练习装置、唱歌练习方法及存储介质 Download PDFInfo
- Publication number
- CN110310615A CN110310615A CN201910212255.7A CN201910212255A CN110310615A CN 110310615 A CN110310615 A CN 110310615A CN 201910212255 A CN201910212255 A CN 201910212255A CN 110310615 A CN110310615 A CN 110310615A
- Authority
- CN
- China
- Prior art keywords
- user
- accompaniment
- time interval
- sounding
- pitch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000001755 vocal effect Effects 0.000 claims abstract description 23
- 238000009877 rendering Methods 0.000 claims 2
- 238000001514 detection method Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 6
- 238000007689 inspection Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002079 cooperative effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000010415 tropism Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B15/00—Teaching music
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/366—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/368—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/325—Musical pitch modification
- G10H2210/331—Note pitch correction, i.e. modifying a note pitch or replacing it by the closest one in a given scale
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/011—Lyrics displays, e.g. for karaoke applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Entrepreneurship & Innovation (AREA)
- General Engineering & Computer Science (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
一种唱歌练习装置、唱歌练习方法及存储介质,包括:存储器,存储有乐曲的乐曲数据,乐曲数据包括伴奏的数据和应由用户歌唱的声乐部分的数据,声乐部分的数据至少包括当再现伴奏时应由用户在第一时间间隔歌唱的第一段、以及当再现伴奏时在第一时间间隔之后应由用户在第二时间间隔歌唱的第二段;至少一个处理器;音频输入设备;以及音频输出设备,基于伴奏的数据,使音频输出设备再现伴奏;在当再现伴奏时到达第一时间间隔时,判定是否在第一时间间隔中由用户通过音频输入设备输入话语;仅在由用户在第一时间间隔中输入话语时,使伴奏再现到即将到达第二时间间隔之前的时间点为止;以及在由用户在第一时间间隔中没有输入话语时,使伴奏停止再现。
Description
对相关申请的交叉引用
本申请以在2018年3月27日提出申请的第2018-059272号日本专利申请为基础并对其主张优先权,并且该原专利申请的全部内容通过引用被包含于此。
技术领域
本发明涉及唱歌练习装置、唱歌练习方法及存储介质。
背景技术
已知有这样的技术,在应进行唱歌的期间中传声器(麦克)被设定为起动状态,在除此以外的期间传声器被设定为停止状态。
专利文献1:日本特开2003-177769号公报
但是,在如上所述的现有技术中,难以支持用户掌握唱歌能力,该唱歌能力是指在正确的发声定时、以正确的音高或正确的发声(歌词)进行唱歌。
根据本发明,其优点之一是,提供一种唱歌练习装置,能够支持用户掌握唱歌能力,该唱歌能力是指在正确的发声定时、以正确的音高或者正确的发声进行唱歌。
发明内容
本发明的唱歌练习装置,包括:
存储器,存储有乐曲的乐曲数据,所述乐曲数据包括伴奏的数据和应由用户歌唱的声乐部分的数据,所述声乐部分的数据至少包括当再现所述伴奏时应由所述用户在第一时间间隔歌唱的第一段、以及当再现所述伴奏时应由所述用户在所述第一时间间隔之后的第二时间间隔歌唱的第二段;
至少一个处理器;
用于接收所述用户的声乐输入的音频输入设备;以及
用于向所述用户可听地输出声音的音频输出设备,
所述至少一个处理器执行以下处理:
基于所述伴奏的数据,使所述音频输出设备再现所述伴奏;
在当再现所述伴奏时到达所述第一时间间隔时,判定是否在所述第一时间间隔中由所述用户通过所述音频输入设备输入话语;
仅在由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏继续再现到即将到达所述第二时间间隔之前的时间点为止;以及在没有由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏停止再现。
本发明的由歌唱练习装置中的至少一个处理器执行的方法,所述唱歌练习设备包括:
包括:
存储器,存储有乐曲的乐曲数据,所述乐曲数据包括伴奏的数据和应由用户歌唱的声乐部分的数据,所述声乐部分的数据至少包括当再现所述伴奏时应由所述用户在第一时间间隔歌唱的第一段、以及当再现所述伴奏时应由所述用户在所述第一时间间隔之后的第二时间间隔歌唱的第二段;
至少一个处理器;
用于接收所述用户的声乐输入的音频输入设备;以及
用于向所述用户可听地输出声音的音频输出设备,
所述方法使所述至少一个处理器执行以下处理:
基于所述伴奏的数据,使所述音频输出设备再现所述伴奏;
在当再现所述伴奏时到达所述第一时间间隔时,判定是否在所述第一时间间隔中由所述用户通过所述音频输入设备输入话语;
仅在由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏继续再现到即将到达所述第二时间间隔之前的时间点为止;以及在没有由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏停止再现。
本发明的非暂时性计算机可读存储介质,存储有由歌唱练习装置中的至少一个处理器执行的程序,
所述歌唱练习装置除了所述至少一个处理器之外还包括:
存储器,存储有乐曲的乐曲数据,所述乐曲数据包括伴奏的数据和应由用户歌唱的声乐部分的数据,所述声乐部分的数据至少包括当再现所述伴奏时应由所述用户在第一时间间隔歌唱的第一段、以及当再现所述伴奏时应由所述用户在所述第一时间间隔之后的第二时间间隔歌唱的第二段;
用于接收所述用户的声乐输入的音频输入设备;以及
用于向所述用户可听地输出声音的音频输出设备,
所述程序使所述至少一个处理器执行以下处理:
基于所述伴奏的数据,使所述音频输出设备再现所述伴奏;
在当再现所述伴奏时到达所述第一时间间隔时,判定是否在所述第一时间间隔中由所述用户通过所述音频输入设备输入话语;
仅在由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏继续再现到即将到达所述第二时间间隔之前的时间点为止;以及在没有由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏停止再现。
附图说明
下面的详细记述在对照下面的附图进行理解时,能够得到对本申请的更深的理解。
图1是概略地表示有关本发明的一实施例的唱歌练习装置的外观图。
图2是表示唱歌练习装置的控制系统的硬件结构的概略图。
图3是表示以唱歌练习装置可以实现的模式的一例的图。
图4是表示唱歌练习装置的功能的一例的框图。
图5是表示在发声定时掌握模式中通过唱歌练习装置执行的处理的一例的概略流程图。
图6A是图5的说明图,是表示进行伴奏时的图。
图6B是图5的说明图,是表示伴奏停止时的图。
图7是表示在正确发声掌握模式中通过唱歌练习装置执行的处理的一例的概略流程图。
图8A是图7的说明图,是表示进行伴奏时的图。
图8B是图7的说明图,是表示伴奏停止时的图。
图9是表示在正确发声及正确音高掌握模式中通过唱歌练习装置执行的处理的一例的概略流程图。
图10A是图9的说明图,是表示进行伴奏时的图。
图10B是图9的说明图,是表示伴奏停止时的图。
具体实施方式
下面,参照附图对各实施例进行详细说明。
图1是概略地表示有关本发明的一实施例的唱歌练习装置1的外观图。
唱歌练习装置1包括电源按钮11、乐曲选择按钮12、再现按钮13、停止按钮14等作为用户界面。并且,唱歌练习装置1包括显示部15、引导部16、扬声器18等。并且,唱歌练习装置1能够连接传声器17。
电源按钮11是用户可以操作的按钮,用于使唱歌练习装置1起动/停止。
乐曲选择按钮12是用户可以操作的按钮,用于选择从唱歌练习装置1再现的乐曲。
再现按钮13是用户可以操作的按钮,用于使乐曲等进行再现。
停止按钮14是用户可以操作的按钮,用于使乐曲等的再现停止。
显示部15例如是液晶显示器,例如按照图1所示输出当前再现中的乐曲的乐谱的部分或歌词的部分等。
引导部16具有显示相对于正确音高的发声(例如用户话语)的高度的音高显示功能。在本实施例中,作为一例,引导部16具有多个灯160。灯160例如是LED(Light EmittingDiode,发光二极管)灯。正中央的灯160点亮的状态对应于发声的高度与正确的音高(以下也称为“正确音高”)一致的状态。另一方面,比正中央靠右侧的灯160点亮的状态对应于发声的高度相对于正确音高较高的状态。发声的高度相对于正确音高越高,越靠右侧的灯160点亮。比正中央靠左侧的灯160点亮的状态对应于发声的高度相对于正确音高较低的状态。发声的高度相对于正确音高越低,越靠左侧的灯160点亮。
引导部16还可以具有发声显示功能,用于显示表示发声是否与正确的歌词(以下也称为“正确歌词”)一致的信息。例如,也可以是,引导部16的所有的灯160点亮的状态对应于发声与正确歌词一致的状态。或者,也可以是,在发声与正确歌词一致的情况下,引导部16的所有的灯160闪烁规定的次数。
在引导部16具有音高显示功能和发声显示功能的情况下,与设置用于实现发声显示功能的其它引导部的情况相比,在实现简洁的结构方面比较有利。另外,作为设置用于实现发声显示功能的其它引导部的情况,例如在发声与正确歌词一致的情况下,在显示部15中被强调的文字可以用规定的颜色进行着色,也可以点亮,还可以进行闪烁。在这种情况下,由于通过显示部15实现其它引导部,因而在实现简洁的结构方面比较有利。另外,用于实现发声显示功能的其它引导部,也可以通过除引导部16和显示部15以外的专用的引导部来实现。
传声器17优选是单一指向性话筒。通过将指向性设置在用户的口部的附近,容易从通过传声器17得到的各种声音中仅抽取用户的发声。另外,传声器17也可以不是单一指向性的。在这种情况下,对被传声器17可以拾取的其它声音(如伴奏那样发声以外的其它声音),可以通过信号处理来去除。
从扬声器18输出乐曲的伴奏和用户的发声等。
在图1所示的例子中,唱歌练习装置1还包括光键盘19。即,唱歌练习装置1还可以作为电子键盘发挥作用。在图1中,通过强调“G”键(参照标号191所指示的部位),表示接下来是弹与“G”相关的琴键的定时。另外,在变形例中,也可以省略光键盘19。
图2是表示唱歌练习装置1的控制系统的硬件结构的概略图。
唱歌练习装置1包括通过总线90相互连接的CPU(Central Processing Unit,中央处理单元)111、ROM(Read Only Memory,只读存储器)112、RAM(Random Access Memory,随机存取存储器)113、乐器音源114、DAC(Digital to Analog Converter,数字模拟转换器)115、LED 116、开关117、显示装置118、歌声音源119及ADC(Analog to Digital Converter,模拟数字转换器)120。
CPU 111控制唱歌练习装置1整体的动作。CPU 111从ROM 112读出所指定的程序并展开到RAM 113中,与所展开的程序协作地执行各种处理。
ROM 112是读取专用的存储部,存储程序和音色波形数据、MIDI(MusicalInstrument Digital Interface,乐器数字接口)数据、各种参数等。另外,乐曲数据(MIDI数据)的取得地点不限于ROM 112,例如从USB存储器取得、从外部终端(唱歌练习装置1以外的设备)取得、以及经由网络取得等。
RAM 113是可以进行读写的存储部,临时存储CPU 111的处理所需要的数据等。
乐器音源114生成基于乐器声音的乐音。例如,乐器音源114按照CPU 111的乐音的生成指示生成乐音,并向DAC 115输出乐音信号。
DAC 115将数字信号(例如与数字乐音相关的乐音信号或后述的歌声信号等)转换成模拟信号。被转换而成的模拟信号在放大器115a中被放大,然后经由扬声器18被输出。
LED 116形成引导部16的灯160。
开关117形成乐曲选择按钮12等各种按钮。
显示装置118形成显示部15。
歌声音源119是生成歌声的声乐音源。例如,歌声音源119是将基于隐马尔可夫模型(Hidden Markov Model,HMM)的语音合成方式应用于歌声的合成中的引擎。另外,隐马尔可夫模型作为语音的特征参数序列的模型化方法,被广泛应用于语音识别等中。例如,歌声音源119按照CPU 111的歌声的生成指示生成歌声,并向DAC 115输出歌声信号。
ADC 120将与在传声器17拾取的用户的发声对应的模拟信号转换成数字信号。被转换而成的数字信号被用于CPU 111的各种处理中。
图3是表示在唱歌练习装置1可以实现的模式的一例的图。
在图3中,在唱歌练习装置1可以实现的模式包括示范演奏模式M1、发声定时掌握模式M2、正确发声掌握模式M3、正确发声及正确音高掌握模式M4(以下称为“正确音高掌握模式M4”)、和卡拉OK模式M5。
在示范演奏模式M1中,按照正确的发声定时、正确歌词以及正确音高,从扬声器18输出数字创建的角色模型歌唱声音(角色模型表演)。另外,在本说明书中提及的“正确的”或者“正确”是依据于在唱歌练习装置1侧设定的基准的,并非指绝对的“正确度”或者“正确”。
在发声定时掌握模式M2中,从扬声器18仅输出伴奏。在发声定时掌握模式M2中,用户能够以一面听着伴奏一面可以在正确的发声定时唱歌的方式练习。关于在发声定时掌握模式M2中的处理,将在后面进行详细说明。
在正确发声掌握模式M3中,从扬声器18仅输出伴奏。在正确发声掌握模式M3中,用户能够以一面听着伴奏一面可以在正确的发声定时而且以正确歌词进行发声的方式练习。关于在正确发声掌握模式M3中的处理,将在后面进行详细说明。
在正确音高掌握模式M4中,从扬声器18仅输出伴奏。在正确音高掌握模式M4中,用户能够以一面听着伴奏一面可以在正确的发声定时而且以正确歌词及正确音高进行唱歌的方式练习。关于在正确音高掌握模式M4中的处理,将在后面进行详细说明。
在卡拉OK模式M5中,从扬声器18仅输出伴奏。在卡拉OK模式M5中,用户能够按照通常方法一面听着伴奏一面唱歌来尝试练习的成果。另外,在卡拉OK模式M5中,通过实施唱歌打分,用户还可以确认掌握程度。
另外,从唱歌课程的观点讲,建议用户从示范演奏模式M1开始,经过发声定时掌握模式M2、正确发声掌握模式M3及正确音高掌握模式M4的练习后到达卡拉OK模式M5(参照图3的箭头)。然而,还可以构成为用户能够在任意时刻选择任意的模式。
另外,此处是设想练习已有的乐曲的歌词,但也可以设计歌词的编辑功能,练习用户作成的填词歌曲的歌词。在幼儿教育方面,可以期望由母亲等作成的独特的歌词吸引幼儿的兴趣的效果。例如,在以幼儿为对象的音乐教育的过程中,存在用音符名即“do re mifa so la xi do”唱出歌词来记住音符名的情况。因此,还可以设为如用音符名唱出歌词那样的练习。
另外,如上所述,在幼儿教育方面,有时通过唱出音符名使记住乐曲的音高。在本实施例中,在使用光键盘19的课程的过程中,通过在正确发声掌握模式M3中使发声音符名来替代歌词,还使相应的光键盘19闪烁、点亮,能够根据音符名掌握乐曲的音高。
图4是表示唱歌练习装置1的功能的一例的框图。
唱歌练习装置1包括临时存储CPU 111和其他处理器(视情况而定)执行所需的指令和/或数据的RAM113,用于执行:发声检测处理40、伴奏输出处理41、发声定时练习控制处理42、正确歌词练习控制处理43、正确音高练习控制处理44、正确歌词输出处理45、模式切换处理46和乐曲信息存储处理47。
发声检测处理40、伴奏输出处理41、发声定时练习控制处理42、正确歌词练习控制处理43、正确音高练习控制处理44、正确歌词输出处理45及模式切换处理46,通过由CPU111执行如ROM 112那样的存储装置内的一个以上的程序来实现。乐曲信息存储处理47能够通过如ROM 112那样的存储装置来实现。在变形例中,乐曲信息存储处理47还可以通过能够改写的辅助存储装置(未图示)来实现。
在发声检测处理40中,根据经由传声器17得到的数字信号(在ADC 120生成的数字信号)检测用户的发声(话语)。另外,在发声检测处理40中,也可以检测例如击打传声器17的声音等的非语音,还可以判定是否是人的语音,仅接受人的语音。
在伴奏输出处理41中,按照乐曲数据输出乐曲的伴奏。乐曲数据包括输出伴奏用的伴奏数据、输出主旋律用的主旋律数据、和与主旋律的各音符对应的歌词数据。主旋律数据包括与正确的发声定时相关的数据、和与正确音高相关的数据,歌词数据包括与正确歌词相关的数据。乐曲数据能够设为例如可以包含MIDI数据和歌词数据的SMF With Lyrics(Standard MIDI File With Lyrics)或乐谱表述用的文件格式即Music XML。当然,也可以是独特的数据格式的乐曲数据。
即,在存储器112或者113中存储有伴奏数据和歌词数据,歌词数据包括表示与所述伴奏数据的第1定时(例如t0、或者从t0到t1期间)对应的第1文字(例如twin)的数据、和表示与继所述第1定时之后的第2定时(t2)对应的第2文字(例如kle)的数据。
其中,所述第1文字及所述第2文字既存在是与某一音符对应的单个文字的情况,也存在是多个文字的情况。
并且,所述第1定时及所述第2定时既可以是定点(例如t0)的定时,也可以具有固定的时间幅度(例如从t0到t1期间)。
发声定时练习控制处理42判定发声检测处理40是否检测出与基于乐曲数据的发声定时一致的发声(发声检测处理的一例)。发声定时练习控制处理42包括如下功能:在发声检测处理40中检测不出与基于乐曲数据的发声定时一致的发声的情况下,使伴奏输出处理41不进行伴奏。所谓基于乐曲数据的发声定时,是指由乐曲数据中包含的与正确的发声定时相关的数据规定的发声定时。所谓与基于乐曲数据的发声定时一致的发声,是指在基于乐曲数据的发声定时被规定为例如一个时间点或者时间范围的情况下,相对于该一个时间点或者时间范围在规定的允许误差内被检测出的发声。规定的允许误差可以根据乐曲的节拍等而变化,也可以由用户自由定义。关于发声定时练习控制处理42的功能在后面进行说明。
即,检测用户有无进行与第1定时一致的发声,在检测出与第1定时一致的发声的情况下,使伴奏数据的再现从第1定时一直进行到即将到达第2定时之前,在检测不出与第1定时一致的发声的情况下,使伴奏数据的再现(自动演奏)停止。
正确歌词练习控制处理43具有如下功能:在判定为发声检测处理40检测出的与基于乐曲数据的发声定时一致的发声与正确歌词不一致的情况下,使伴奏输出处理41不进行伴奏。关于发声是否与正确歌词一致,例如可以按照以下所述进行判定。具体地,发声检测处理40抽取发声的特征量,正确歌词练习控制处理43使用DP(Dynamic Programming)匹配或隐马尔可夫模型的方法,实施与正确歌词的比较及判定。语音特征量例如是倒谱参数。关于正确歌词练习控制处理43的功能在后面进行说明。
正确音高练习控制处理44具有如下功能:在判定为发声检测处理40中检测出的与基于乐曲数据的发声定时一致的发声的音高与正确音高不一致的情况下,使伴奏输出处理41不进行伴奏。关于音高的抽取,例如能够采用第5246208号日本专利所记载的方法。关于发声的音高是否与正确音高一致,不需要严格,可以允许某种程度的误差。即,人的声音的高低多少有偏差,因而不需要以正确的音高进行判定,只要发声的音高相对于正确音高在固定的允许误差内即可。该允许误差也可以由用户自由定义。关于正确音高练习控制处理44的功能在后面进行说明。
正确歌词输出处理45输出按照乐曲数据而合成的正确歌词。例如,正确歌词输出处理45与歌声音源119协作地输出正确歌词。关于正确歌词的输出定时在后面进行说明。
模式切换处理46执行在示范演奏模式M1、发声定时掌握模式M2、正确发声掌握模式M3、正确音高掌握模式M4及卡拉OK模式M5之间切换模式的切换处理。
模式切换处理46例如可以按照来自用户的指令执行切换处理,还可以按照规定的规则执行切换处理。例如,模式切换处理46可以执行如下的切换处理,即从示范演奏模式M1开始,经由发声定时掌握模式M2、正确发声掌握模式M3及正确音高掌握模式M4的练习,然后到达卡拉OK模式M5。无论哪种情况下,用户都能够以符合自己的水平的模式进行练习,因而实现如上所述的有效的唱歌课程。例如,在乐曲掌握课程中,幼儿能够分阶段地掌握包含歌词的乐曲的唱歌。
下面,参照自图5起的附图,对发声定时掌握模式M2、正确发声掌握模式M3及正确音高掌握模式M4的处理的例子进行说明。
图5是表示在发声定时掌握模式M2中通过唱歌练习装置1执行的处理的一例的概略流程图。
在步骤S20中,伴奏输出处理41从乐曲信息存储处理47取得与所指定的乐曲相关的乐曲数据,并执行乐曲开始处理。具体地,伴奏输出处理41还执行将与所指定的乐曲相关的乐曲数据从ROM 12读取到例如作为工作区域发挥作用的RAM 113中的处理,以便能够进行自动伴奏。并且,伴奏输出处理41按照与所指定的乐曲相关的乐曲数据开始输出该乐曲的伴奏。
在步骤S21中,发声定时练习控制处理42根据乐曲数据执行后续音强调显示处理。具体地,发声定时练习控制处理42经由显示部15输出表示接下来的发声(歌词)的文字的信息。例如,在图1中,通过强调文字“twin”,表示接下来的发声是“twin”。
在步骤S22中,伴奏输出处理41根据乐曲数据执行伴奏进行处理(截止到接下来的发声点的通常的伴奏进行处理)。即,伴奏输出处理41以通常的节拍进行伴奏。
在步骤S23中,发声定时练习控制处理42根据乐曲数据判定正确的发声区间的开始时间点是否到来。在此,作为一例,正确的发声区间是指相对于基于乐曲数据的发声定时(此处指一个时间点)具有规定的允许误差的区间。另外,规定的允许误差如上所述可以根据乐曲的节拍等而变化,还可以由用户自由定义。在判定结果为“是”的情况下,进入步骤S24-1,在除此以外的情况下返回到步骤S22。
在步骤S24-1中,发声定时练习控制处理42根据发声检测处理40的检测结果,判定发声检测处理40是否检测出发声。在判定结果为“是”的情况下,进入步骤S25,在除此以外的情况下,进入步骤S24-2。
即,CPU检测有无与伴奏数据的第1定时一致的发声,在检测出发声的情况下,将所述伴奏数据的再现从所述第1定时进行到即将到达所述第2定时之前,在检测不出发声的情况下,使所述伴奏数据的再现停止。
在步骤S24-2中,发声定时练习控制处理42判定正确的发声区间的结束时间点是否到来。在判定结果为“是”的情况下,进入步骤S24-3,在除此以外的情况下,进入步骤S24-4。
在步骤S24-3中,发声定时练习控制处理42使伴奏输出处理41停止伴奏进行处理。另外,此时伴奏输出处理41可以使伴奏停止而处于无音状态,还可以断续地输出正确的发声区间内的任意时间点(例如正确的发声区间的结束时间点)的伴奏的声音。
在步骤S24-4中,伴奏输出处理41根据乐曲数据执行截止到正确的发声区间的结束时间点的伴奏进行处理。
这样,当在步骤S24-1中判定结果为“否”时,处于一面在正确的发声区间中使进行伴奏,一面等待发声检测处理40检测发声的待机状态。在该待机状态下不会返回到步骤S22,因而不执行通常的伴奏进行处理。并且,发声定时练习控制处理42在一直到正确的发声区间的结束时间点也检测不出发声的情况下(步骤S24-2:是),在正确的发声区间的结束时间点使伴奏输出处理41停止伴奏的进行(步骤S24-3)(伴奏停止处理及发声定时练习控制处理的一例)。
在步骤S25中,伴奏输出处理41根据乐曲数据判定乐曲是否结束。在判定结果为“是”的情况下,进入步骤S26,在除此以外的情况下返回到步骤S21。
在步骤S26中,伴奏输出处理41执行乐曲停止处理。即,伴奏的进行按照通常的方式结束。
根据图5所示的处理,在发声检测处理40中检测不出与基于乐曲数据的发声定时一致的发声的情况下,能够使不执行伴奏进行处理。由此,由于不进行伴奏,因而用户能够马上注意到搞错了发声定时。另一方面,当在发声后进行伴奏时,用户能够识别到发声定时正确。这样,根据图5所示的处理,能够有效地支持用户掌握正确的发声定时。
图6A及图6B是图5的说明图,表示按照从上到下的顺序示出发声定时、发声的检测结果、伴奏的进行状态的时间序列的例子。在图6A及图6B中,发声定时相同,示出了从t0到t1的正确的发声区间(第1定时的一例)和从t2到t3的后续发声区间的开始定时t2。关于发声的检测结果,“ON”表示检测出发声的状态。关于伴奏的进行状态,“ON”表示进行伴奏的状态,“OFF”表示伴奏停止的状态。
在图6A所示的例子中,在从t0到t1的正确的发声区间中检测出发声,因此伴奏一直进行到接下来的正确的发声区间(从t2到t3的正确的发声区间)的开始定时t2。另一方面,在图6B所示的例子中,在从t0到t1的正确的发声区间中检测不出发声,因此在这种情况下伴奏停止。
图7是表示在正确发声掌握模式M3中通过唱歌练习装置1执行的处理的一例的概略流程图。
从步骤S30到步骤S34-4,处理内容与参照图5的从上述的步骤S20到步骤S24-4相同。
在步骤S34-1中,在判定结果为“是”的情况下,进入步骤S35,在除此以外的情况下,处于等待发声检测处理40检测发声的待机状态。
在步骤S35中,正确歌词练习控制处理43执行发声是否与正确歌词一致的音素判定处理。关于发声是否与正确歌词一致的判定方法参照以上所述。
在步骤S36中,当在步骤S35中的音素判定处理的判定结果为“是”的情况下,进入步骤S38。另一方面,当在步骤S35中的音素判定处理的判定结果为“否”的情况下,通过步骤S37-1及步骤S37-2返回到步骤S34-1。
在步骤S37-1中,正确歌词输出处理45使伴奏输出处理41停止伴奏进行处理。另外,此时伴奏输出处理41可以使伴奏停止而处于无音状态,还可以断续地输出正确的发声区间内的任意时间点(例如当前时间点)的伴奏的声音。这样,在判定为发声与正确歌词不一致的情况下,不返回到步骤S32,因而不执行伴奏进行处理。即,正确歌词练习控制处理43使伴奏输出处理41不进行伴奏(正确语音练习控制处理的一例)。
在步骤S37-2中,正确歌词输出处理45进行正确语音发音处理(歌声发声处理的一例)。具体地,正确歌词输出处理45与歌声音源119协作动作,经由扬声器18输出按照乐曲数据而合成的正确歌词。
在步骤S38中,伴奏输出处理41根据乐曲数据判定乐曲是否结束。在判定结果为“是”的情况下,进入步骤S39,在除此以外的情况下返回到步骤S31。
在步骤S39中,伴奏输出处理41执行乐曲停止处理。即,伴奏的进行按照通常的方式结束。
根据图7所示的处理,在发声检测处理40检测不出与基于乐曲数据的发声定时一致的发声的情况下,能够使不执行伴奏进行处理。由此,由于不进行伴奏,因而用户能够马上注意到搞错了发声定时。另一方面,当在发声后进行伴奏时,用户能够识别到发声定时正确。这样,根据图7所示的处理,能够有效地支持用户掌握正确的发声定时。
并且,根据图7所示的处理,即使是在发声检测处理40中根据基于乐曲数据的发声定时检测出某种发声的情况下,在判定为发声与正确歌词不一致时,也能够使不执行伴奏进行处理。由此,由于不进行伴奏,因而用户能够马上注意到错误的发声。另一方面,当在发声后进行伴奏时,用户能够识别到发声(歌词)正确。这样,根据图7所示的处理,能够有效地支持用户掌握正确歌词。
并且,根据图7所示的处理,在判定为发声与正确歌词不一致的情况下,输出按照乐曲数据而合成的正确歌词。由此,用户能够马上注意到错误的发声(歌词),并且能够容易掌握正确歌词。
图8A及图8B是图7的说明图,表示按照从上到下的顺序示出发声定时、发声的检测结果、用户的发声是否与正确歌词一致的判定结果、伴奏的进行状态的时间序列的例子。在图8A及图8B中,发声定时相同,示出了从t0到t1的正确的发声区间(第1定时的一例)和从t2到t3的正确的发声区间(第2定时的一例)。关于发声的检测结果,“ON”表示检测出发声的状态。关于伴奏的进行状态,“ON”表示进行伴奏的状态,“OFF”表示伴奏停止的状态。并且,关于用户的发声是否与正确歌词一致的判定结果,“正”表示用户的发声与正确歌词一致的判定结果,“误”表示用户的发声与正确歌词不一致的判定结果。
在图8A所示的例子中,判定为在从t0到t1的正确的发声区间中检测出发声,而且该发声与正确歌词(第1文字的一例)一致。因此,伴奏一直进行到接下来的正确的发声区间(从t2到t3的正确的发声区间)。并且,判定为在从t2到t3的正确的发声区间中检测出发声,而且该发声与正确歌词(第2文字的一例)一致。因此,伴奏一直进行到接下来的正确的发声区间(未图示)。另一方面,在图8B所示的例子中,判定为虽然在从t0到t1的正确的发声区间中检测出发声,但是该发声与正确歌词不一致。因此,在这种情况下伴奏停止。
图9是表示在正确音高掌握模式M4中通过唱歌练习装置1执行的处理的一例的概略流程图。
从步骤S40到步骤S44-4,处理内容与参照图5的从上述的步骤S20到步骤S24-4相同。并且,从步骤S45到步骤S47-2,处理内容与参照图7的从上述的步骤S35到步骤S37-2相同。
在步骤S46中,在音素判定处理的判定结果为“是”的情况下,进入步骤S48。
在步骤S48中,正确音高练习控制处理44执行音高判定处理。具体地,正确音高练习控制处理44判定发声检测处理40检测出的发声的音高是否与正确音高一致。例如,在图1的例子中判定用户是否发声了“G”的音高。
在步骤S49中,在步骤S48的音高判定处理的判定结果为“是”的情况下,进入步骤S50。另一方面,在步骤S48的音高判定处理的判定结果为“否”的情况下,通过步骤S47-1及步骤S47-2返回到步骤S44-1。因此,在判定为发声的音高与正确音高不一致的情况下不返回到步骤S42,因而不执行伴奏进行处理。即,正确音高练习控制处理44使伴奏输出处理41不进行伴奏(正确音高练习控制处理的一例)。
另外,在步骤S49中,正确音高练习控制处理44也可以使引导部16的多个灯160中、与发声检测处理40检测出的发声的音高对应的灯160点亮。即,正确音高练习控制处理44可以通过引导部16显示表示与发声对应的音高和正确音高相比是高还是低的信息。由此,能够对用户提示用户的发声的音高相对于正确音高相同或者低或者高。
在步骤S50中,正确音高练习控制处理44根据乐曲数据判定乐曲是否结束。在判定结果为“是”的情况下,进入步骤S51,在除此以外的情况下返回到步骤S41。
在步骤S51中,伴奏输出处理41执行乐曲停止处理。即,伴奏的进行按照通常的方式结束。
根据图9所示的处理,在发声检测处理40检测不出与基于乐曲数据的发声定时一致的发声的情况下,能够使不执行伴奏进行处理。由此,由于不进行伴奏,因而用户能够马上注意到搞错了发声定时。另一方面,当在发声后进行伴奏时,用户能够识别到发声定时正确。这样,根据图9所示的处理,能够有效地支持用户掌握正确的发声定时。
并且,根据图9所示的处理,即使是在发声检测处理40根据基于乐曲数据的发声定时检测出某种发声的情况下,在判定为发声与正确歌词不一致时或者判定为发声的音高与正确音高不一致时,也能够使不执行伴奏进行处理。由此,由于不进行伴奏,因而用户能够马上注意到错误的发声或者音高。另一方面,当在发声后进行伴奏时,用户能够识别到发声及音高正确。这样,根据图9所示的处理,能够有效地支持用户掌握正确歌词及正确音高。
并且,根据图9所示的处理,在判定为发声与正确歌词不一致的情况下或者判定为发声的音高与正确音高不一致的情况下,输出按照乐曲数据而合成的正确歌声。由此,用户能够马上注意到错误的发声或者音高,并且能够容易掌握正确歌词或者音高。
图10A及图10B是图9的说明图,表示按照从上到下的顺序示出发声定时、发声的检测结果、用户的发声的音高是否与正确音高一致的判定结果、伴奏的进行状态的时间序列的例子。在图10A及图10B中,发声定时相同,示出了从t0到t1的正确的发声区间(第1定时的一例)和从t2到t3的正确的发声区间(第2定时的一例)。关于发声的检测结果,“ON”表示检测出发声的状态。关于伴奏的进行状态,“ON”表示进行伴奏的状态,“OFF”表示伴奏停止的状态。并且,关于用户的发声的音高是否与正确音高一致的判定结果,“正”表示用户的发声的音高与正确音高一致的判定结果,“误”表示用户的发声的音高与正确音高不一致的判定结果。在图10A及图10B中,假设判定为各发声与正确歌词一致,但没有图示。
在图10A所示的例子中,判定为在从t0到t1的正确的发声区间中检测出发声,而且该发声的音高与正确音高(第1音高的一例)一致。因此,伴奏一直进行到接下来的正确的发声区间(从t2到t3的正确的发声区间)。并且,判定为在从t2到t3的正确的发声区间中检测出发声,而且该发声的音高与正确音高(第2音高的一例)一致。因此,伴奏一直进行到接下来的正确的发声区间(未图示)。另一方面,在图10B所示的例子中,判定为虽然在从t0到t1的正确的发声区间中检测出发声,但是该发声的音高与正确音高不一致。因此,在这种情况下伴奏停止。
另外,以往存在具有面向幼儿或乐器初学者的课程功能的电子键盘。例如,具有发光的键盘的电子键盘的课程使应按照乐曲的进行而顺序地按键的琴键闪烁、点亮,在用户按键该琴键后使乐曲进行到接下来的音。
另一方面,不存在对于本来可以适用于初步的乐器演奏的歌,具有支持掌握幼儿的包含歌词的乐曲的唱歌的课程功能的电子乐器。虽然在一部分的卡拉OK设备中存在具有对用户的唱歌打分的功能的设备,但这是对已掌握的歌的唱歌打分,并非课程功能,不适合于幼儿记住乐曲的歌词并记住旋律的目的。
关于这一点,根据本实施例,在电子键盘乐器中,能够以与幼儿练习乐曲的演奏时相同的容易理解程度及简便程度,使幼儿掌握包含歌词的乐曲的歌唱。
以上对各实施例进行了详细说明,但不限于特定的实施例,能够在权利要求书所记载的范围内进行各种的变形及变更。并且,还能够对前述的实施例的构成要素进行全部或者多个的构成要素的组合。
例如,在上述的实施例中,除发声定时掌握模式M2以外,还准备了正确发声掌握模式M3及正确音高掌握模式M4的掌握模式,但不限于此。例如,也可以是,除发声定时掌握模式M2以外,仅准备正确发声掌握模式M3及正确音高掌握模式M4中的一方。
并且,在上述的实施例中,也可以替代正确发声掌握模式M3或者除正确发声掌握模式M3以外,还准备正确音高掌握模式。在这种情况下,在图9中成为省略了步骤S45及步骤S46的方式。
作为其它的实施例,还可以是对每一节拍判定一节拍量的声音片段,或者可以在每个音乐行中判定一个音乐行中的一个音节或多个音节。对每1小节进行判定的方式。CPU111按照以某一时间长度划分而成的时间长度(某一区间),判定有无用户的发声、用户的发声的正确程度。
以上对本发明的具体的实施方式进行了说明,但本发明不限于上述的实施方式,能够在不脱离本发明的主旨的范围内进行各种变更。对于本领域技术人员而言,显然能够在不脱离本发明的精神或者范围的前提下对本发明进行各种变更及变形。因此,应理解为本发明包括在附带的权利要求书及其均等范围内的改变及变形。特别是,显然应理解为,对上述的实施方式及其变形中任意两个以上的任意的一部分或者全部进行组合时,能够理解为在本发明的范围内。
对于本领域技术人员显而易见的是,在不脱离本发明的精神或范围的情况下,可以在本发明中进行各种修改和变化。因此,本发明旨在覆盖落入所附权利要求及其等同物的范围内的修改和变化。特别地,明确地预期,上述任何两个或更多个实施例及其修改的任何部分或全部可以组合并视为在本发明的范围内。
Claims (9)
1.一种歌唱练习装置,包括:
存储器,存储有乐曲的乐曲数据,所述乐曲数据包括伴奏的数据和应由用户歌唱的声乐部分的数据,所述声乐部分的数据至少包括当再现所述伴奏时应由所述用户在第一时间间隔歌唱的第一段、以及当再现所述伴奏时应由所述用户在所述第一时间间隔之后的第二时间间隔歌唱的第二段;
至少一个处理器;
用于接收所述用户的声乐输入的音频输入设备;以及
用于向所述用户可听地输出声音的音频输出设备,
所述至少一个处理器执行以下处理:
基于所述伴奏的数据,使所述音频输出设备再现所述伴奏;
在当再现所述伴奏时到达所述第一时间间隔时,判定是否在所述第一时间间隔中由所述用户通过所述音频输入设备输入话语;
仅在由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏继续再现到即将到达所述第二时间间隔之前的时间点为止;以及
在没有由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏停止再现。
2.根据权利要求1所述的歌唱练习装置,
所述声乐部分的所述数据的所述第一段和所述第二段分别包括第一字母和第二字母,所述第一字母和所述第二字母是在所述用户分别发声所述第一段和所述第二段时应由所述用户发音的第一字母和第二字母,
当所述至少一个处理器判定为由所述用户在所述第一时间间隔通过所述音频输入设备输入了所述话语时,所述至少一个处理器执行用于分析所述用户的话语的字母的音素判定处理,并且当所述话语的所述字母与所述第一字母匹配时使所述伴奏继续再现到即将到达所述第二时间间隔之前的所述时间点为止。
3.根据权利要求2所述的歌唱练习装置,
当所述至少一个处理器判定为由所述用户在所述第一时间间隔通过所述音频输入设备输入了所述话语时,并且所述话语的所述字母与所述第一字母不匹配时,所述至少一个处理器使所述伴奏停止再现,并且使与具有所述第一字母的所述第一段对应的正确的声乐声音合成并从所述音频输出设备输出。
4.根据权利要求1所述的歌唱练习装置,
所述声乐部分的所述数据的所述第一段和所述第二段分别包括第一音高和第二音高,所述第一音高和所述第二音高是在所述用户分别发声所述第一段和所述第二段时应由所述用户发出的第一音高和第二音高,
当所述至少一个处理器判定为由所述用户在所述第一时间间隔通过所述音频输入设备输入了所述话语时,所述至少一个处理器执行用于分析所述用户的话语的音高的音高判定处理,并且当所述话语的所述音高与所述第一音高匹配时使所述伴奏继续再现到即将到达所述第二时间间隔之前的所述时间点为止。
5.根据权利要求4所述的歌唱练习装置,
当所述至少一个处理器判定为由所述用户在所述第一时间间隔通过所述音频输入设备输入了所述话语时,并且所述话语的所述音高与所述第一音高不匹配时,所述至少一个处理器使所述伴奏停止再现,并且使与具有所述第一音高的所述第一段对应的正确的声乐声音合成并从所述音频输出设备输出。
6.根据权利要求4所述的歌唱练习装置,
当所述至少一个处理器判定为由所述用户在所述第一时间间隔通过所述音频输入设备输入了所述话语时,所述至少一个处理器使所分析的所述用户的所述话语的所述音高与所述第一音高的偏差传达给所述用户。
7.根据权利要求1所述的歌唱练习装置,
所述声乐部分的所述数据的所述第一段和所述第二段分别包括第一字母和第一音高、以及第二字母和第二音高,所述第一字母和第一音高、以及所述第二字母和第二音高是在所述用户分别发声所述第一段和所述第二段时应由所述用户发出的,
当所述至少一个处理器判定为没有由所述用户在所述第一时间间隔通过所述音频输入设备输入所述话语时,所述至少一个处理器使所述伴奏停止再现,
当所述至少一个处理器判定为由所述用户在所述第一时间间隔通过所述音频输入设备输入了所述话语时,如果满足以下两个条件中的至少一个条件,则所述至少一个处理器使所述伴奏停止再现,
i)在所述第一时间间隔由所述用户的所述话语指示的字母与所述第一字母不匹配,
ii)在所述第一时间间隔由所述用户的所述话语指示的音高与所述第一音高不匹配。
8.一种由歌唱练习装置中的至少一个处理器执行的方法,所述唱歌练习设备包括:
存储器,存储有乐曲的乐曲数据,所述乐曲数据包括伴奏的数据和应由用户歌唱的声乐部分的数据,所述声乐部分的数据至少包括当再现所述伴奏时应由所述用户在第一时间间隔歌唱的第一段、以及当再现所述伴奏时应由所述用户在所述第一时间间隔之后的第二时间间隔歌唱的第二段;
至少一个处理器;
用于接收所述用户的声乐输入的音频输入设备;以及
用于向所述用户可听地输出声音的音频输出设备,
所述方法使所述至少一个处理器执行以下处理:
基于所述伴奏的数据,使所述音频输出设备再现所述伴奏;
在当再现所述伴奏时到达所述第一时间间隔时,判定是否在所述第一时间间隔中由所述用户通过所述音频输入设备输入话语;
仅在由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏继续再现到即将到达所述第二时间间隔之前的时间点为止;以及
在没有由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏停止再现。
9.一种非暂时性计算机可读存储介质,存储有由歌唱练习装置中的至少一个处理器执行的程序,
所述歌唱练习装置除了所述至少一个处理器之外还包括:
存储器,存储有乐曲的乐曲数据,所述乐曲数据包括伴奏的数据和应由用户歌唱的声乐部分的数据,所述声乐部分的数据至少包括当再现所述伴奏时应由所述用户在第一时间间隔歌唱的第一段、以及当再现所述伴奏时应由所述用户在所述第一时间间隔之后的第二时间间隔歌唱的第二段;
用于接收所述用户的声乐输入的音频输入设备;以及
用于向所述用户可听地输出声音的音频输出设备,
所述程序使所述至少一个处理器执行以下处理:
基于所述伴奏的数据,使所述音频输出设备再现所述伴奏;
在当再现所述伴奏时到达所述第一时间间隔时,判定是否在所述第一时间间隔中由所述用户通过所述音频输入设备输入话语;
仅在由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏继续再现到即将到达所述第二时间间隔之前的时间点为止;以及
在没有由所述用户在所述第一时间间隔中输入所述话语时,使所述伴奏停止再现。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-059272 | 2018-03-27 | ||
JP2018059272A JP7035697B2 (ja) | 2018-03-27 | 2018-03-27 | 歌唱練習装置、歌唱練習方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110310615A true CN110310615A (zh) | 2019-10-08 |
CN110310615B CN110310615B (zh) | 2024-02-13 |
Family
ID=68055422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910212255.7A Active CN110310615B (zh) | 2018-03-27 | 2019-03-20 | 唱歌练习装置、唱歌练习方法及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190304327A1 (zh) |
JP (1) | JP7035697B2 (zh) |
CN (1) | CN110310615B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910861A (zh) * | 2019-11-20 | 2020-03-24 | 西安音乐学院 | 一种利用互联网大数据进行精准匹配的自动伴奏系统 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6610715B1 (ja) | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP6610714B1 (ja) * | 2018-06-21 | 2019-11-27 | カシオ計算機株式会社 | 電子楽器、電子楽器の制御方法、及びプログラム |
JP7059972B2 (ja) | 2019-03-14 | 2022-04-26 | カシオ計算機株式会社 | 電子楽器、鍵盤楽器、方法、プログラム |
JP7166696B1 (ja) | 2022-07-07 | 2022-11-08 | 株式会社Ongli | 情報処理方法、プログラム及び情報処理装置 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07311584A (ja) * | 1994-05-17 | 1995-11-28 | Brother Ind Ltd | カラオケ装置 |
US5906494A (en) * | 1993-04-09 | 1999-05-25 | Matsushita Electric Industrial Co., Ltd. | Training apparatus for singing |
CN1287346A (zh) * | 1999-09-03 | 2001-03-14 | 科乐美股份有限公司 | 唱歌伴奏系统 |
KR20010038227A (ko) * | 1999-10-22 | 2001-05-15 | 윤재환 | 말하는 동안 소비한 열량을 측정하는 장치 및 방법, 가창에 의한 소비열량 측정기능을 갖는 노래반주장치, 노래반주장치의 가창 시 소비열량 측정 및 표시방법 |
JP2003044063A (ja) * | 2001-07-31 | 2003-02-14 | Daiichikosho Co Ltd | 歌唱指導番組を再生できるカラオケ装置 |
JP2004144867A (ja) * | 2002-10-23 | 2004-05-20 | Daiichikosho Co Ltd | カラオケ装置における歌唱練習支援システム |
CN1609982A (zh) * | 2003-10-20 | 2005-04-27 | 乐金电子(惠州)有限公司 | 卡拉ok光盘的播放控制装置及其方法 |
JP2008020798A (ja) * | 2006-07-14 | 2008-01-31 | Yamaha Corp | 歌唱指導装置 |
US20080070203A1 (en) * | 2004-05-28 | 2008-03-20 | Franzblau Charles A | Computer-Aided Learning System Employing a Pitch Tracking Line |
US20090317783A1 (en) * | 2006-07-05 | 2009-12-24 | Yamaha Corporation | Song practice support device |
US20100203491A1 (en) * | 2007-09-18 | 2010-08-12 | Jin Ho Yoon | karaoke system which has a song studying function |
CN203013236U (zh) * | 2012-05-29 | 2013-06-19 | 陈学煌 | 音准练习伴奏装置 |
US8744856B1 (en) * | 2011-02-22 | 2014-06-03 | Carnegie Speech Company | Computer implemented system and method and computer program product for evaluating pronunciation of phonemes in a language |
JP2016156990A (ja) * | 2015-02-25 | 2016-09-01 | ブラザー工業株式会社 | 音声合成装置、及びプログラム |
US20180061256A1 (en) * | 2016-01-25 | 2018-03-01 | Wespeke, Inc. | Automated digital media content extraction for digital lesson generation |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2532465Y2 (ja) * | 1990-02-27 | 1997-04-16 | カシオ計算機株式会社 | 自動演奏装置 |
JP3110494B2 (ja) | 1991-06-14 | 2000-11-20 | バーグ・テクノロジー・インコーポレーテッド | コネクタ |
JPH11175076A (ja) * | 1997-12-15 | 1999-07-02 | Ricoh Co Ltd | 音楽再生装置 |
JP2001013976A (ja) * | 1999-07-02 | 2001-01-19 | Kenwood Corp | カラオケ装置 |
JP2001232062A (ja) | 2000-02-24 | 2001-08-28 | Pacific Century Cyberworks Japan Co Ltd | ゲーム装置、ゲーム制御方法およびその記録媒体 |
-
2018
- 2018-03-27 JP JP2018059272A patent/JP7035697B2/ja active Active
-
2019
- 2019-03-20 CN CN201910212255.7A patent/CN110310615B/zh active Active
- 2019-03-26 US US16/365,480 patent/US20190304327A1/en not_active Abandoned
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5906494A (en) * | 1993-04-09 | 1999-05-25 | Matsushita Electric Industrial Co., Ltd. | Training apparatus for singing |
JPH07311584A (ja) * | 1994-05-17 | 1995-11-28 | Brother Ind Ltd | カラオケ装置 |
CN1287346A (zh) * | 1999-09-03 | 2001-03-14 | 科乐美股份有限公司 | 唱歌伴奏系统 |
KR20010038227A (ko) * | 1999-10-22 | 2001-05-15 | 윤재환 | 말하는 동안 소비한 열량을 측정하는 장치 및 방법, 가창에 의한 소비열량 측정기능을 갖는 노래반주장치, 노래반주장치의 가창 시 소비열량 측정 및 표시방법 |
JP2003044063A (ja) * | 2001-07-31 | 2003-02-14 | Daiichikosho Co Ltd | 歌唱指導番組を再生できるカラオケ装置 |
JP2004144867A (ja) * | 2002-10-23 | 2004-05-20 | Daiichikosho Co Ltd | カラオケ装置における歌唱練習支援システム |
CN1609982A (zh) * | 2003-10-20 | 2005-04-27 | 乐金电子(惠州)有限公司 | 卡拉ok光盘的播放控制装置及其方法 |
US20080070203A1 (en) * | 2004-05-28 | 2008-03-20 | Franzblau Charles A | Computer-Aided Learning System Employing a Pitch Tracking Line |
US20090317783A1 (en) * | 2006-07-05 | 2009-12-24 | Yamaha Corporation | Song practice support device |
JP2008020798A (ja) * | 2006-07-14 | 2008-01-31 | Yamaha Corp | 歌唱指導装置 |
US20100203491A1 (en) * | 2007-09-18 | 2010-08-12 | Jin Ho Yoon | karaoke system which has a song studying function |
US8744856B1 (en) * | 2011-02-22 | 2014-06-03 | Carnegie Speech Company | Computer implemented system and method and computer program product for evaluating pronunciation of phonemes in a language |
CN203013236U (zh) * | 2012-05-29 | 2013-06-19 | 陈学煌 | 音准练习伴奏装置 |
JP2016156990A (ja) * | 2015-02-25 | 2016-09-01 | ブラザー工業株式会社 | 音声合成装置、及びプログラム |
US20180061256A1 (en) * | 2016-01-25 | 2018-03-01 | Wespeke, Inc. | Automated digital media content extraction for digital lesson generation |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910861A (zh) * | 2019-11-20 | 2020-03-24 | 西安音乐学院 | 一种利用互联网大数据进行精准匹配的自动伴奏系统 |
Also Published As
Publication number | Publication date |
---|---|
US20190304327A1 (en) | 2019-10-03 |
JP2019174505A (ja) | 2019-10-10 |
CN110310615B (zh) | 2024-02-13 |
JP7035697B2 (ja) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110310615A (zh) | 唱歌练习装置、唱歌练习方法及存储介质 | |
EP2733696B1 (en) | Voice synthesizing method and voice synthesizing apparatus | |
RU2690863C1 (ru) | Система и способ компьютеризированного обучения музыкальному языку | |
JP2007527555A (ja) | 韻律音声テキストコード及びコンピュータ化された音声システムへのその使用 | |
JP7347479B2 (ja) | 電子楽器、電子楽器の制御方法及びそのプログラム | |
US20140278433A1 (en) | Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon | |
JP2008026622A (ja) | 評価装置 | |
CN113160779A (zh) | 电子乐器、方法及存储介质 | |
JP7180587B2 (ja) | 電子楽器、方法及びプログラム | |
CN113506554A (zh) | 电子乐器、电子乐器的控制方法 | |
JP4479701B2 (ja) | 楽曲練習支援装置、動的時間整合モジュールおよびプログラム | |
JP2022168269A (ja) | 電子楽器、学習済モデル、学習済モデルを備える装置、電子楽器の制御方法、及びプログラム | |
JP4650182B2 (ja) | 自動伴奏装置及びプログラム | |
JP6056394B2 (ja) | 音声処理装置 | |
JP6098422B2 (ja) | 情報処理装置、及びプログラム | |
Janer | Singing-driven interfaces for sound synthesizers | |
JP2002041068A (ja) | カラオケ装置における歌唱採点方法 | |
JPH1124676A (ja) | カラオケ装置 | |
JP2008040260A (ja) | 楽曲練習支援装置、動的時間整合モジュールおよびプログラム | |
JP2001117598A (ja) | 音声変換装置及び方法 | |
JP2022065554A (ja) | 音声合成方法およびプログラム | |
JP2022065566A (ja) | 音声合成方法およびプログラム | |
JP2007225916A (ja) | オーサリング装置、オーサリング方法およびプログラム | |
JP2008040258A (ja) | 楽曲練習支援装置、動的時間整合モジュールおよびプログラム | |
JP4501874B2 (ja) | 楽曲練習装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |