CN114639394A - 一种虚拟演奏伙伴的实现方法和装置 - Google Patents
一种虚拟演奏伙伴的实现方法和装置 Download PDFInfo
- Publication number
- CN114639394A CN114639394A CN202210329134.2A CN202210329134A CN114639394A CN 114639394 A CN114639394 A CN 114639394A CN 202210329134 A CN202210329134 A CN 202210329134A CN 114639394 A CN114639394 A CN 114639394A
- Authority
- CN
- China
- Prior art keywords
- playing
- performance
- music score
- current
- partner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000033764 rhythmic process Effects 0.000 claims description 15
- 238000003062 neural network model Methods 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 239000011295 pitch Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/015—Musical staff, tablature or score displays, e.g. for score reading during a performance.
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本申请公开了一种虚拟演奏伙伴的实现方法,包括:以音频帧为单位,采集演奏者演奏的音频帧数据;对于采集的每一个当前音频帧数据,将所述当前音频帧数据转换为当前数字乐谱,并与演奏曲目中指定范围的数字乐谱进行匹配,确定所述指定范围的数字乐谱中与所述当前数字乐谱匹配的匹配数字乐谱;定位所述匹配数字乐谱在演奏曲目中的位置,并确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节合作部分乐曲的开始播放时间;根据所述当前数字乐谱的演奏时间和所述匹配数字乐谱的演奏时间,确定所述演奏者与演奏伙伴的演奏误差,根据所述演奏误差,调节所述演奏伙伴对于所述演奏曲目合作部分的播放速度。应用本申请,能够使乐曲播放适应演奏者的演奏进度,改善演奏者的演奏体验。
Description
技术领域
本申请涉及音频处理技术,特别涉及一种虚拟演奏伙伴的实现方法和装置。
背景技术
随着国内素质教育水平日益提高,音乐爱好者越来越多,乐器演奏是音乐技艺中很重要的一个组成部分。通常的乐器演奏中会有演奏者和合作者合作演奏一个乐曲,演奏者在音乐合作中起主导地位,合作者需跟随演奏者进行演奏,例如小提琴演奏中,通常有一个演奏者演奏小提琴,一个交响乐团作为合作者,与小提琴演奏者一起进行演奏。
在传统的乐器演奏练习中,演奏者通常是跟随CD演奏。但是,由于演奏者水平有限,或者,演奏的乐曲可能是高难度的炫技作品,演奏者很可能无法跟上CD中艺术家的录音,使得当前演奏练习的体验感较差。
发明内容
本申请提供一种虚拟演奏伙伴的实现方法和装置,能够使乐曲播放适应演奏者的演奏进度,改善演奏者的演奏体验。
为实现上述目的,本申请采用如下技术方案:
一种虚拟演奏伙伴的实现方法,包括:
以音频帧为单位,采集演奏者演奏的音频帧数据;
对于采集的每一个当前音频帧数据,执行如下处理:
将所述当前音频帧数据转换为当前数字乐谱,并与演奏曲目中指定范围的数字乐谱进行匹配,确定所述指定范围的数字乐谱中与所述当前数字乐谱匹配的匹配数字乐谱;
定位所述匹配数字乐谱在演奏曲目中的位置,并确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节合作部分乐曲的开始播放时间;
根据所述当前数字乐谱的演奏时间和所述匹配数字乐谱的演奏时间,确定所述演奏者与演奏伙伴的演奏误差,根据所述演奏误差,调节所述演奏伙伴对于所述演奏曲目合作部分的播放速度。
较佳地,该方法进一步包括:根据所述当前数字乐谱被定位的位置,确定下个音频帧进行匹配时的所述指定范围。
较佳地,所述确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节乐曲的开始播放时间包括:
根据所述匹配数字乐谱被定位的位置以及所述当前音频帧数据的前N个音频帧数据对应的匹配数字乐谱被定位的位置,确定演奏者的演奏速度,将所述演奏速度作为所述演奏曲目的基准播放速度;
基于所述基准播放速度,确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节乐曲的开始播放时间。
较佳地,所述根据所述演奏误差调节演奏伙伴对于所述演奏曲目的播放速度包括:
当所述演奏误差小于一拍时,在所述基准播放速度的基础上,在当前小节内根据所述演奏误差调节所述播放速度,使所述演奏伙伴与所述演奏者对于当前小节乐曲的演奏结束时间一致;
当所述演奏误差大于一拍时,所述演奏伙伴在当前小节暂停播放,并按照所述下一小节乐曲的播放时间进行下一小节乐曲的播放。
较佳地,该方法进一步包括:
当所述演奏曲目中包含重复的段落时,接收输入的设定演奏段落,并将该演奏段落作为所述指定范围。
较佳地,该方法进一步包括:
当所述演奏曲目从演奏伙伴的演奏开始时,所述演奏伙伴按照设定的播放速度播放所述演奏曲目中所述演奏者进行演奏之前的部分。
较佳地,该方法进一步包括:
当所述演奏曲目由所述演奏者的独奏部分转入所述演奏伙伴的演奏部分时,若所述演奏者的演奏速度出现变化,则所述演奏伙伴按照独奏部分结束时的演奏速度开始进行所述演奏曲目的播放;否则,所述演奏伙伴按照设定的播放速度开始进行所述演奏曲目的播放。
较佳地,当所述当前数字乐谱在第一设定时间内未匹配成功时,所述演奏伙伴结束所述演奏曲目的播放。
较佳地,所述将所述当前音频帧数据转换为当前数字乐谱包括:
利用预先训练好的神经网络模型对所述当前音频帧数据进行处理,输出与所述当前音频帧数据对应的当前数字乐谱。
较佳地,所述数字乐谱利用二值显著图来表示,利用二分类交叉熵损失函数训练所述神经网络模型。
较佳地,所述匹配操作是利用NPU实现的。
较佳地,该方法进一步包括:输出所属演奏曲目的乐谱和所述定位确定的位置。
较佳地,该方法进一步包括:根据所述定位确定的位置,确定当前场景,并对应当前场景,利用演奏者预先选定的虚拟形象合成与所述当前场景对应的虚拟演奏动画。
较佳地,当存在多个演奏用户时,
所述演奏者为预先设定的一个演奏用户;当在预设的第二时间内未匹配成功,则将演奏者切换为预设的下一个演奏用户。
较佳地,当存在多个演奏用户时,保存每个用户预先选定的虚拟形象;
在显示虚拟演奏动画时显示利用当前演奏者预先选定的虚拟形象合成的虚拟演奏动画,当演奏者切换时,将虚拟演奏动画切换为切换后的演奏者预先选定的虚拟形象合成的虚拟演奏动画;或者,同步显示所有演奏用户预先选定的虚拟形象,并合成想要的虚拟演奏动画。
较佳地,所述对应当前场景利用演奏者预先选定的虚拟形象合成与所述当前场景对应的虚拟演奏动画包括:
预先在所述演奏曲目中设置动画切换位置,当所述演奏伙伴对所述演奏曲目的播放进度到达所述动画切换位置时,变换所述虚拟演奏动画;和/或,
若所述当前数字乐谱未匹配成功和/或对应所述当前数字乐谱的所述演奏误差大于设定阈值,则将所述演奏者预先设定的虚拟形象变换为预先设定的动作,并合成所述虚拟演奏动画。
较佳地,所述动画切换位置是根据演奏用户的输入设置的,或者,所述动画切换位置是在所述演奏曲目中包含的。
较佳地,所述动画切换位置为:所述演奏曲目中合作部分内不同乐器间的切换位置;
所述变换所述虚拟演奏动画包括:对应于所述不同乐器间的切换位置,展示预先对应切换后乐器的演奏设置的虚拟演奏动画。
一种虚拟演奏伙伴的实现装置,包括:采集单元、乐谱识别和匹配单元、乐谱定位单元和节奏跟踪单元;
所述采集单元,用于以音频帧为单位,采集演奏者演奏的音频帧数据;
所述乐谱识别和匹配单元,用于对于采集的每一个当前音频帧数据,将所述当前音频帧数据转换为当前数字乐谱,并与演奏曲目中指定范围的数字乐谱进行匹配,确定所述指定范围的数字乐谱中与所述当前数字乐谱匹配的匹配数字乐谱;
所述乐谱定位单元,用于对于采集的每一个当前音频帧数据,定位所述匹配数字乐谱在演奏曲目中的位置,并确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节合作部分乐曲的开始播放时间;
所述节奏跟踪单元,用于对于采集的每一个当前音频帧数据,根据所述当前数字乐谱的演奏时间和所述匹配数字乐谱的演奏时间,确定所述演奏者与演奏伙伴的演奏误差,根据所述演奏误差,调节所述演奏伙伴对于所述演奏曲目合作部分的播放速度。
由上述技术方案可见,本申请中,将当前音频帧数据转换为当前数字乐谱,并与演奏曲目中指定范围的数字乐谱进行匹配,确定指定范围的数字乐谱中与当前数字乐谱匹配的匹配数字乐谱。根据当前数字乐谱的演奏时间和匹配数字乐谱的演奏时间,确定演奏者与演奏伙伴的演奏误差,根据演奏误差调节演奏伙伴对于演奏曲目的播放速度或停止当前小节的播放;根据与当前音频帧数据及其前N个音频帧数据匹配的匹配数字乐谱,确定演奏伙伴对当前数字乐谱下一小节乐曲的播放时间。通过上述方式,演奏伙伴可以根据演奏者演奏的音频进行跟踪播放,尤其是进行节奏上的跟踪,从而使乐曲播放适应演奏者的演奏进度,改善演奏者的演奏体验。
附图说明
图1为本申请中虚拟演奏伙伴实现方法的基本流程示意图;
图2为本申请实施例中系统架构示意图;
图3为本实施例中虚拟演奏伙伴实现方法的具体流程示意图;
图4为神经网络模型的训练示意图;
图5为本申请中虚拟演奏伙伴实现装置的基本结构示意图。
具体实施方式
为了使本申请的目的、技术手段和优点更加清楚明白,以下结合附图对本申请做进一步详细说明。
在乐器演奏中,合作者需要跟随演奏者演奏,同时,音乐对节奏敏感,轻微的延时就能造成听觉的不适感,基于此,本申请提供一种虚拟演奏伙伴的实现方法和装置,能够根据演奏者的音频自适应调节播放器中播放演奏曲目的内容和速度,并尤其针对演奏者的节奏进行播放调整。
具体地,演奏伙伴就是控制播放器进行乐曲播放的虚拟设备,演奏者是使用演奏伙伴为自己的乐器演奏进行伴奏的用户。演奏者进行某乐曲A的实际演奏,播放器中播放相应乐曲A的指定部分,通常是某种乐器演奏的乐曲A中的伴奏部分。以下将演奏的整个乐曲称为演奏曲目,演奏曲目的完整乐谱和对应的由演奏伙伴播放的音频文件可以预先进行保存,例如保存在服务器中。演奏伙伴根据演奏用户对于某演奏乐曲的请求,获取保存的该演奏曲目的乐谱以及演奏伙伴播放的音频文件,完整乐谱中包括演奏者演奏部分的乐谱以及演奏伙伴播放的音频文件对应的乐谱(以下称为合作部分的乐谱)。另外,为提供更多的选择性,对应一个演奏曲目,可以保存多个由演奏伙伴播放的音频文件,例如可以是对应不同乐器的音频文件,这样可以为演奏用户提供同一演奏曲目的不同种乐器伴奏的版本。
图1为本申请中虚拟演奏伙伴实现方法的基本流程示意图。如图1所示,该方法包括:
步骤101,以音频帧为单位,采集演奏者演奏的音频帧数据。
对于步骤101中采集的每一个当前音频帧数据,执行如下步骤102-104的处理:
步骤102,将当前音频帧数据转换为当前数字乐谱,并与演奏曲目中指定范围的数字乐谱进行匹配,确定指定范围的数字乐谱中与所述当前数字乐谱匹配的匹配数字乐谱。
本步骤用于进行乐谱识别和乐谱匹配的操作。首先将采集的音频帧数据转换为数字乐谱,将当前音频帧数据转换成的数字乐谱称为当前数字乐谱。预先将演奏曲目的音频数据转换为数字乐谱,将转换后的当前数字乐谱与整个演奏曲目或该演奏曲目中指定范围的数字乐谱进行匹配,将演奏曲目中匹配成功的那部分数字乐谱称为匹配数字乐谱。由此可见,每个当前音频帧数据转换为当前数字乐谱,并确定相应的匹配数字乐谱。其中,进行数字乐谱匹配时,与当前数字乐谱进行匹配的整个演奏曲目的数字乐谱应当是演奏者演奏部分的乐谱。
步骤103,定位匹配数字乐谱在演奏曲目中的位置,并确定演奏伙伴对演奏曲目中在匹配数字乐谱下一小节合作部分乐曲的开始播放时间。
本步骤用于进行乐谱定位。对于步骤102确定的匹配数字乐谱,确定该匹配数字乐谱在整个演奏曲目中的位置,也就是相当于演奏者当前演奏的部分在整个乐曲中的位置。利用该位置信息,确定出演奏伙伴什么时间开始播放定位位置下一小节的乐曲内容。关于确定下一小节开始播放时间的具体方式,在后面实施例中进行详细描述。
同时,如果演奏伙伴支持显示演奏的乐谱,那么还可以按照定位位置,在演奏的乐谱中指示定位的位置。
步骤104,根据当前数字乐谱的演奏时间和匹配数字乐谱的演奏时间,确定演奏者与演奏伙伴的演奏误差,根据演奏误差,调节演奏伙伴对于演奏曲目中合作部分的播放速度。
本步骤用于进行节奏跟踪的处理。具体地,确定演奏者的演奏与演奏伙伴的播放之间的误差,从而进行节奏跟踪,以调节演奏伙伴对于演奏曲目的播放速度。
至此,本申请中最基本的虚拟演奏伙伴实现方法流程结束。通过上述流程,能够识别演奏者演奏的音频,定位演奏部分在乐曲中的位置,从而使演奏者控制播放器在每一小节的播放进度,同时,利用演奏者和演奏伙伴之间的演奏误差,进行节奏跟踪,进一步调整播放器的播放速度。
如图1所示的流程,需要针对每个音频帧来进行步骤102-104处理的,因此要求处理速度比较快,优选地,可以利用NPU等硬件为支撑,用于实现上述方法。同时,演奏伙伴实时分析音频,匹配乐谱,属于高耗能计算场景,部署于台式设备可以忽略电源等问题,再加上,与乐器合奏需要相当的音量,因此,优选地,可以将电视作为合适的部署平台,实现本申请的具体方法。
下面通过一个具体实施例说明本申请中虚拟演奏伙伴实现方法的具体实现。在本实施例中,选择电视作为相应方法的部署平台,整个系统架构如图2所示,包括电视机、与电视机相连的麦克风、与电视机相连的音响。图3为本实施例中虚拟演奏伙伴实现方法的具体流程示意图,该流程以对一个音频帧的处理为例进行说明,如图3所示,对一个音频帧的具体处理包括:
步骤301,获取演奏者的当前音频帧数据。
本步骤的处理可以采用各种现有方式。例如在电视上插接一个麦克风,用于采集演奏者的音频。
步骤302,利用预先训练好的神经网络模型,将当前音频帧数据转换为当前数字乐谱。
本步骤用于进行乐谱识别,即将麦克风采集的音频转换为可以被后续处理的数字乐谱。数字乐谱可以采用各种现有方式来表示,例如二值显著图。具体地,音乐的音高从大字二组A起到小字五组c,以半音为间隔共计88个键值,基于此,乐谱可以表示为二维矩阵,其X轴为时间坐标,Y轴为音高坐标,以此生成二值显著图。
在本步骤的处理中,将当前音频帧数据输入训练好的神经网络模型,该模型处理后即输出与当前音频帧数据对应的当前数字乐谱。当然,在整个图3所示的流程开始之前,需要预先训练好用于进行音频数据和数字乐谱转换的神经网络模型。下面简单介绍一下神经网络模型的训练。
该神经网络模型输入为麦克风采集的音频帧数据,输出为相应的数字乐谱,本实施例中具体为二值显著图。考虑到乐器演奏的特殊性,不同乐器音色的区别,优选地,可以为每种乐器训练相应的神经网络模型。
对于神经网络的训练,可以预先准备训练数据,具体包括一系列音频数据(采集自相应的乐器进行乐谱演奏的过程)以及该音频数据对应的数字乐谱。其中,音频数据对应的数字乐谱的获取方式为:已知音频数据A对应的乐谱,也就是演奏内容的谱子,例如五线谱等,将该乐谱利用数字乐谱形式表示出来,例如二值显著图表示相应的谱子,该数字乐谱即与音频数据A相对应。在神经网络训练中,如图4所示,音频数据及其对应的数字乐谱构成成对的训练数据,将音频数据输入神经网络模型,得到模型输出,将该输出与音频数据对应的数字乐谱进行比对,计算损失函数,从而据此更新模型参数,再将下一个训练的音频数据输入模型处理,直到模型训练完成。在本实施例中,数字乐谱利用二值显著图表示,由于二值显著图是二分类标签,因此,优选地,可以使用二分类交叉熵损失函数训练神经网络模型。
步骤303,将当前数字乐谱与演奏曲目中指定范围的数字乐谱进行匹配,确定指定范围的数字乐谱中与当前数字乐谱匹配的匹配数字乐谱。
本步骤用于进行乐谱匹配。为进行乐谱匹配,需要获取演奏曲目的数字乐谱,可以是预先存储在数据库中的。将当前数字乐谱与演奏曲目的完整数字乐谱或指定的部分数字乐谱进行比较,进行窗口搜索,找出与当前数字乐谱最相似的部分,将其称为匹配数字乐谱。其中,如前所述,用于比较的演奏曲目的数字乐谱可以是完整数字乐谱或指定的部分数字乐谱,这里,指定的部分数字乐谱,可以是用户指定的,也可以是在经历过若干音频帧的处理后,已经锁定当前演奏的内容在演奏曲目的某个区域内,则将该区域作为指定范围。当然,进行数字乐谱匹配时,应当选择演奏曲目中演奏者演奏部分的数字乐谱与当前数字乐谱进行匹配。
实现匹配可以采用现有的各种搜索和匹配算法,或者也可以通过预先训练网络模型的方式来实现。另外,为加速运算,分担CPU占用率,上述匹配处理可以通过NPU执行。
步骤304,定位匹配数字乐谱在演奏曲目中的位置,并确定演奏伙伴对演奏曲目中在匹配数字乐谱下一小节合作部分乐曲的开始播放时间。
如前所述,虚拟演奏伙伴的实现实际上就是控制播放器(本实施例中就是电视机)对于设定播放内容的播放。其中,设定播放内容可以是预先由用户设置好的,例如某个曲目的大提琴伴奏音频。
本步骤首先进行乐谱定位。确定步骤303匹配到的匹配数字乐谱在演奏曲目中的位置,该位置也就是演奏者当前演奏到的部分。根据该匹配数字乐谱被定位的位置以及当前音频帧数据的前N个音频帧数据对应的匹配数字乐谱被定位的位置,计算演奏者的演奏速度,也就是N+1个音频帧时间内的平均演奏速度,将该演奏速度作为播放器播放演奏曲目的基准播放速度。接下来,基于基准播放速度,确定播放器对演奏曲目中在匹配数字乐谱下一小节乐曲的开始播放时间。也就是说,基于上述基准播放速度(即演奏者的平均演奏速度),推算当前音频帧所在小节的下一个小节的开始演奏时间,播放器将该开始演奏时间作为下一小节乐曲的开始播放时间,这样使得在下一小节起始位置,演奏者的演奏和播放器的播放是同步的。
另外,如前所述,在进行乐谱匹配时,可以在乐曲的指定范围内进行匹配。优选地,可以根据本步骤的定位结果,根据该定位位置确定下一个音频帧数据的处理中,指定范围的具体位置。
上述对于乐谱定位的处理是最基本的处理方式,这里称为随机定位方式,是对于普通音频帧处理时使用的,具体可以包括演奏者首次进入音乐、演奏者从任意位置开始演奏。在此基础上,还可以进一步包括乐理定位方式,指根据乐谱中标记的信息处理并播放合作部分,乐谱中标记的信息例如可以是:音乐从独奏部分开始、演奏自由速度的段落导致难于追踪、作品中包含重复的段落、音乐从乐队开始、音乐从独奏转为乐队等。
对于上述随机定位方式和乐理定位方式,可以针对不同情况采用相应的处理进行下一小节合作曲目开始播放时间的确定,为前述确定方式将其简称为随机定位算法。关于随机定位和乐理定位的处理分配,可以如下进行:
当演奏者首次进入音乐、演奏者从任意位置开始演奏、音乐从独奏部分开始、演奏自由速度的段落导致难于追踪,可以采用上述随机定位算法处理,确定基准播放速度和下一小节的开始播放时间;
当演奏曲目中包含重复的段落时,接收输入的设定演奏段落,并将该演奏段落作为指定范围,并执行随机定位算法处理,确定基准播放速度和下一小节的开始播放时间;
当演奏曲目从演奏伙伴的演奏开始时,演奏伙伴按照设定的播放速度播放演奏曲目中演奏者进行演奏之前的部分;其中,设定的播放速度可以是默认播放速度;
当演奏曲目由演奏者的独奏部分转入演奏伙伴的演奏部分时,若演奏者的演奏速度出现变化,则演奏伙伴按照独奏部分结束时的演奏速度开始进行演奏曲目的播放;否则,演奏伙伴按照设定的播放速度开始进行演奏曲目的播放。
步骤305,根据当前数字乐谱的演奏时间和匹配数字乐谱的演奏时间,确定演奏者与演奏伙伴的演奏误差,根据演奏误差,调节演奏伙伴对于演奏曲目合作部分的播放速度。
本步骤用于进行节奏跟踪,调节小节内的实际播放速度。
首先需要确定演奏者和演奏伙伴的演奏误差。如前所述,数字乐谱包括乐谱中各音的音高和时间,将该时间称为数字乐谱的演奏时间。将当前数字乐谱的演奏时间和匹配数字乐谱的演奏时间,二者之间的差值就是演奏误差。
根据演奏误差调节播放速度的方式具体可以包括:当演奏误差小于一拍时,在步骤305确定的基准播放速度的基础上,在当前小节内根据演奏误差调节播放速度,使演奏伙伴与演奏者对于当前小节乐曲的演奏结束时间一致;这样能够在当前小节内调节演奏速度,在当前小节内赶上演奏者的演奏速度,并与步骤304的处理相配合,保证下一小节开始时间一致;
当演奏误差大于一拍时,演奏伙伴在当前小节暂停播放,并按照下一小节乐曲的播放时间进行下一小节乐曲的播放;由于节奏上的不同步很容易被察觉,因此如果演奏误差过大,就在当前小节暂停演奏伙伴的演奏,即暂停播放器的播放,从下一小节开始再播放下一小节乐谱的合作部分,同样与步骤304的处理相配合。
另外,若当前数字乐谱在第一设定时间(例如5秒)内未匹配成功时,演奏伙伴结束演奏曲目的播放。
若演奏者跳过小节、暂停演奏少于第一设定时间,则在当前小节暂停演奏伙伴的演奏,即暂停播放器的播放,从下一小节开始再播放下一小节乐谱的合作部分,同样与步骤304的处理相配合;
若演奏结束、演奏中断(即无法采集到对应的音频帧数据),则演奏伙伴结束演奏曲目的播放。
至此,本实施例中的方法流程结束。
在上述方法的基础上,由于电视还具有显示的功能,因此还可以进一步包括如下处理,以丰富用户体验:
1、显示输出演奏乐谱以及当前演奏位置的信息;这里根据步骤304的定位结果,可以实时显示定位到的当前演奏位置;
2、允许用户通过设置选择用户虚拟形象,根据乐谱定位结果,实时显示合成的虚拟演奏动画;具体地,用户的虚拟形象可以包括静态形象和动态形象,静态形象是指虚拟人物的肖像,服饰,装饰,乐器和舞台布景等固定素材,动态形象指用户演奏时电视端实时合成的动画动作,如人物动作,镜头动作等;可以根据乐谱定位而确定出的不同场景,显示预设的动画内容。
具体地,可以预先在演奏曲目中设置动画切换位置,当演奏伙伴对演奏曲目的播放进度到达某动画切换位置时,变换显示的虚拟演奏动画。其中变换的虚拟演奏动画内容可以预先设计好,例如,可以设置动画切换位置为:演奏曲目中合作部分内不同乐器间的切换位置;那么相应地,在演奏到该动画切换位置(也就是不同乐器间的切换位置)后,展示预先对应切换后乐器的演奏设置的虚拟演奏动画。其中,动画切换位置可以是根据演奏用户在演奏开始前输入进行设置的,或者,动画切换位置也可以是在演奏曲目中包含,在最初建立文件时已经设置好的。
或者,当检测到演奏伙伴所在设备的音量发生变化时,可以将虚拟动画中各个虚拟形象的动作幅度随音量变化而变化。
或者,在当前数字乐谱未匹配成功和/或演奏者节奏出现问题(例如可以是对应当前数字乐谱的演奏误差大于设定阈值)时,还可以将演奏者预先设定的虚拟形象变换为预先设定的动作,并合成相应虚拟演奏动画,从而在数字乐谱匹配失败和/或节奏出现问题时,演奏者对应的动画人物可以有相应的表现。
下面给出一个对应不同场景显示的相应虚拟演奏动画的示例,如表1所示。
场景 | 动画(动态形象) |
1.等待演出 | 演奏者就位,挥手致意 |
2.乐队场景之一 | 镜头显示所有乐手 |
3.乐队场景之二 | 镜头从各个角度展示乐队 |
4.独奏者准备进入 | 独奏者和乐队交换目光表示已准备 |
5.独奏者演奏 | 镜头聚焦独奏者 |
6.新声部进入音乐 | 镜头在人物身上聚焦2-3秒 |
7.音量变化 | 演奏的动作幅度跟随音量调整 |
8.节奏变化 | 镜头聚焦变化幅度最大的人物2-3秒 |
9.演奏结束 | 乐队放下乐器致意,然后结束动画 |
10.演奏中断 | 乐队抓住乐器等待继续,超过5秒则结束动画 |
表1
另外,上述整个演奏伙伴的处理是针对一个特定的演奏者进行的。事实上,在具体实现时,还可以设置单用户的情况和多用户的情况。这里称为演奏跟踪,具体包括单用户跟踪和多用户跟踪。在单用户场景中,用户完成基本设置并开始演奏,演奏伙伴始终跟随设定用户;在多用户场景中,假设有用户A、B和C,按照常规的音乐合作,三位用户应当同步演奏,此时演奏伙伴跟随设定的一个用户A演奏合作部分,如果节奏追踪部分丢失用户A超过第二设定时间(例如2秒),则将跟踪目标切换至另一用户,以此类推。
当存在多个演奏用户时,每个用户都可以预先选定相应的虚拟形象。在显示虚拟演奏动画时,可以仅显示当前演奏者(也就是演奏伙伴正在跟随的用户)对应的虚拟形象,并合成相应的虚拟演奏动画,当演奏者切换时,将虚拟演奏动画切换为切换后的演奏者对应的虚拟形象,并合成相应的虚拟演奏动画。或者,在显示虚拟演奏动画时,也可以同步显示所有演奏者的虚拟形象,并合成相应的虚拟演奏动画。
上述即为本申请中虚拟演奏伙伴实现方法的具体实现。通过上述本申请的处理,演奏伙伴可以根据演奏者演奏的音频进行跟踪播放,尤其是进行节奏上的跟踪,从而使乐曲播放适应演奏者的演奏进度,改善演奏者的演奏体验。
本申请还提供一种虚拟演奏伙伴的实现装置,如图5所示,该装置包括:采集单元、乐谱识别和匹配单元、乐谱定位单元和节奏跟踪单元;
所述采集单元,用于以音频帧为单位,采集演奏者演奏的音频帧数据;
所述乐谱识别和匹配单元,用于对于采集的每一个当前音频帧数据,将所述当前音频帧数据转换为当前数字乐谱,并与演奏曲目中指定范围的数字乐谱进行匹配,确定所述指定范围的数字乐谱中与所述当前数字乐谱匹配的匹配数字乐谱;
所述乐谱定位单元,用于对于采集的每一个当前音频帧数据,定位所述匹配数字乐谱在演奏曲目中的位置,并确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节合作部分乐曲的开始播放时间;
所述节奏跟踪单元,用于对于采集的每一个当前音频帧数据,根据所述当前数字乐谱的演奏时间和所述匹配数字乐谱的演奏时间,确定所述演奏者与演奏伙伴的演奏误差,根据所述演奏误差,调节所述演奏伙伴对于所述演奏曲目合作部分的播放速度。
利用上述本申请的方法和装置,可以实现虚拟演奏伙伴。下面给出一个小的示例:
系统设置如表2所示。在该示例所示系统设置下,用户可以通过设置选择要演奏的作品,并设置声部、演奏者使用的乐器和演奏者的虚拟动画形象;电视机根据用户设置利用云端服务从乐谱库中获取用户设置作品对应的数字乐谱,并从声音库中获取用户设置乐器的神经网络模型,用于进行音频到数字乐谱的转换;电视机通过连接的麦克风采集演奏者利用选择的乐器演奏产生的音频数据;电视机进行乐谱识别,将采集的音频数据转换为数字乐谱,进行匹配后定位当前音乐的位置,并与演奏者的演奏同步播放设定乐曲的合作部分;电视机根据定位的位置实时合成虚拟演奏动画进行输出,并输出乐谱以及乐谱中定位的位置。
表2
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (19)
1.一种虚拟演奏伙伴的实现方法,其特征在于,包括:
以音频帧为单位,采集演奏者演奏的音频帧数据;
对于采集的每一个当前音频帧数据,执行如下处理:
将所述当前音频帧数据转换为当前数字乐谱,并与演奏曲目中指定范围的数字乐谱进行匹配,确定所述指定范围的数字乐谱中与所述当前数字乐谱匹配的匹配数字乐谱;
定位所述匹配数字乐谱在演奏曲目中的位置,并确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节合作部分乐曲的开始播放时间;
根据所述当前数字乐谱的演奏时间和所述匹配数字乐谱的演奏时间,确定所述演奏者与演奏伙伴的演奏误差,根据所述演奏误差,调节所述演奏伙伴对于所述演奏曲目合作部分的播放速度。
2.根据权利要求1所述的方法,其特征在于,该方法进一步包括:根据所述当前数字乐谱被定位的位置,确定下个音频帧进行匹配时的所述指定范围。
3.根据权利要求1所述的方法,其特征在于,所述确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节乐曲的开始播放时间包括:
根据所述匹配数字乐谱被定位的位置以及所述当前音频帧数据的前N个音频帧数据对应的匹配数字乐谱被定位的位置,确定演奏者的演奏速度,将所述演奏速度作为所述演奏曲目的基准播放速度;
基于所述基准播放速度,确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节乐曲的开始播放时间。
4.根据权利要求3所述的方法,其特征在于,所述根据所述演奏误差调节演奏伙伴对于所述演奏曲目的播放速度包括:
当所述演奏误差小于一拍时,在所述基准播放速度的基础上,在当前小节内根据所述演奏误差调节所述播放速度,使所述演奏伙伴与所述演奏者对于当前小节乐曲的演奏结束时间一致;
当所述演奏误差大于一拍时,所述演奏伙伴在当前小节暂停播放,并按照所述下一小节乐曲的播放时间进行下一小节乐曲的播放。
5.根据权利要求1所述的方法,其特征在于,该方法进一步包括:
当所述演奏曲目中包含重复的段落时,接收输入的设定演奏段落,并将该演奏段落作为所述指定范围。
6.根据权利要求1所述的方法,其特征在于,该方法进一步包括:
当所述演奏曲目从演奏伙伴的演奏开始时,所述演奏伙伴按照设定的播放速度播放所述演奏曲目中所述演奏者进行演奏之前的部分。
7.根据权利要求1所述的方法,其特征在于,该方法进一步包括:
当所述演奏曲目由所述演奏者的独奏部分转入所述演奏伙伴的演奏部分时,若所述演奏者的演奏速度出现变化,则所述演奏伙伴按照独奏部分结束时的演奏速度开始进行所述演奏曲目的播放;否则,所述演奏伙伴按照设定的播放速度开始进行所述演奏曲目的播放。
8.根据权利要求1所述的方法,其特征在于,当所述当前数字乐谱在第一设定时间内未匹配成功时,所述演奏伙伴结束所述演奏曲目的播放。
9.根据权利要求1所述的方法,其特征在于,所述将所述当前音频帧数据转换为当前数字乐谱包括:
利用预先训练好的神经网络模型对所述当前音频帧数据进行处理,输出与所述当前音频帧数据对应的当前数字乐谱。
10.根据权利要求9所述的方法,其特征在于,所述数字乐谱利用二值显著图来表示,利用二分类交叉熵损失函数训练所述神经网络模型。
11.根据权利要求1所述的方法,其特征在于,所述匹配操作是利用NPU实现的。
12.根据权利要求1所述的方法,其特征在于,该方法进一步包括:输出所属演奏曲目的乐谱和所述定位确定的位置。
13.根据权利要求1所述的方法,其特征在于,该方法进一步包括:根据所述定位确定的位置,确定当前场景,并对应当前场景,利用演奏者预先选定的虚拟形象合成与所述当前场景对应的虚拟演奏动画。
14.根据权利要求1所述的方法,其特征在于,当存在多个演奏用户时,
所述演奏者为预先设定的一个演奏用户;当在预设的第二时间内未匹配成功,则将演奏者切换为预设的下一个演奏用户。
15.根据权利要求13所述的方法,其特征在于,当存在多个演奏用户时,保存每个用户预先选定的虚拟形象;
在显示虚拟演奏动画时显示利用当前演奏者预先选定的虚拟形象合成的虚拟演奏动画,当演奏者切换时,将虚拟演奏动画切换为切换后的演奏者预先选定的虚拟形象合成的虚拟演奏动画;或者,同步显示所有演奏用户预先选定的虚拟形象,并合成想要的虚拟演奏动画。
16.根据权利要求13所述的方法,其特征在于,所述对应当前场景利用演奏者预先选定的虚拟形象合成与所述当前场景对应的虚拟演奏动画包括:
预先在所述演奏曲目中设置动画切换位置,当所述演奏伙伴对所述演奏曲目的播放进度到达所述动画切换位置时,变换所述虚拟演奏动画;和/或,
若所述当前数字乐谱未匹配成功和/或对应所述当前数字乐谱的所述演奏误差大于设定阈值,则将所述演奏者预先设定的虚拟形象变换为预先设定的动作,并合成所述虚拟演奏动画。
17.根据权利要求16所述的方法,其特征在于,所述动画切换位置是根据演奏用户的输入设置的,或者,所述动画切换位置是在所述演奏曲目中包含的。
18.根据权利要求16所述的方法,其特征在于,所述动画切换位置为:所述演奏曲目中合作部分内不同乐器间的切换位置;
所述变换所述虚拟演奏动画包括:对应于所述不同乐器间的切换位置,展示预先对应切换后乐器的演奏设置的虚拟演奏动画。
19.一种虚拟演奏伙伴的实现装置,其特征在于,该装置包括:采集单元、乐谱识别和匹配单元、乐谱定位单元和节奏跟踪单元;
所述采集单元,用于以音频帧为单位,采集演奏者演奏的音频帧数据;
所述乐谱识别和匹配单元,用于对于采集的每一个当前音频帧数据,将所述当前音频帧数据转换为当前数字乐谱,并与演奏曲目中指定范围的数字乐谱进行匹配,确定所述指定范围的数字乐谱中与所述当前数字乐谱匹配的匹配数字乐谱;
所述乐谱定位单元,用于对于采集的每一个当前音频帧数据,定位所述匹配数字乐谱在演奏曲目中的位置,并确定所述演奏伙伴对所述演奏曲目中在所述匹配数字乐谱下一小节合作部分乐曲的开始播放时间;
所述节奏跟踪单元,用于对于采集的每一个当前音频帧数据,根据所述当前数字乐谱的演奏时间和所述匹配数字乐谱的演奏时间,确定所述演奏者与演奏伙伴的演奏误差,根据所述演奏误差,调节所述演奏伙伴对于所述演奏曲目合作部分的播放速度。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210329134.2A CN114639394A (zh) | 2022-03-30 | 2022-03-30 | 一种虚拟演奏伙伴的实现方法和装置 |
PCT/KR2023/002880 WO2023191322A1 (en) | 2022-03-30 | 2023-03-02 | Method and apparatus for implementing virtual performance partner |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210329134.2A CN114639394A (zh) | 2022-03-30 | 2022-03-30 | 一种虚拟演奏伙伴的实现方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114639394A true CN114639394A (zh) | 2022-06-17 |
Family
ID=81951294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210329134.2A Pending CN114639394A (zh) | 2022-03-30 | 2022-03-30 | 一种虚拟演奏伙伴的实现方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114639394A (zh) |
WO (1) | WO2023191322A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001125568A (ja) * | 1999-10-28 | 2001-05-11 | Roland Corp | 電子楽器 |
CN103258529B (zh) * | 2013-04-16 | 2015-09-16 | 初绍军 | 一种电子乐器、音乐演奏方法 |
JP6187132B2 (ja) * | 2013-10-18 | 2017-08-30 | ヤマハ株式会社 | スコアアライメント装置及びスコアアライメントプログラム |
WO2018207936A1 (ja) * | 2017-05-12 | 2018-11-15 | 株式会社デザインMプラス | 譜面自動検出方法および装置 |
CN113689836B (zh) * | 2021-08-12 | 2023-08-18 | 福建星网视易信息系统有限公司 | 一种将音频转换成音符并显示的方法及终端 |
-
2022
- 2022-03-30 CN CN202210329134.2A patent/CN114639394A/zh active Pending
-
2023
- 2023-03-02 WO PCT/KR2023/002880 patent/WO2023191322A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023191322A1 (en) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9847078B2 (en) | Music performance system and method thereof | |
Dittmar et al. | Music information retrieval meets music education | |
US11557269B2 (en) | Information processing method | |
US11653167B2 (en) | Audio generation system and method | |
JP2007020659A (ja) | ゲームの制御方法およびゲーム装置 | |
CN112669798B (zh) | 一种对音乐信号主动跟随的伴奏方法及相关设备 | |
JP2008286946A (ja) | データ再生装置、データ再生方法およびプログラム | |
CN114639394A (zh) | 一种虚拟演奏伙伴的实现方法和装置 | |
JP5092589B2 (ja) | 演奏クロック生成装置、データ再生装置、演奏クロック生成方法、データ再生方法およびプログラム | |
US20230237981A1 (en) | Method and apparatus for implementing virtual performance partner | |
CN112420006B (zh) | 运行模拟乐器组件的方法及装置、存储介质、计算机设备 | |
JP2021140065A (ja) | 処理システム、音響システム及びプログラム | |
JP2008197269A (ja) | データ再生装置、データ再生方法およびプログラム | |
JP4470947B2 (ja) | データ再生装置、データ再生方法およびプログラム | |
JP2016071187A (ja) | 音声合成装置、及び音声合成システム | |
WO2023139883A1 (ja) | 信号処理装置、及び信号処理方法 | |
JP2008197272A (ja) | データ再生装置、データ再生方法およびプログラム | |
JP2023051345A (ja) | カラオケシステム | |
CN116978344A (zh) | 一种弹唱自动伴奏的方法及系统 | |
JP4173475B2 (ja) | 歌詞表示方法および装置 | |
JP6026835B2 (ja) | カラオケ装置 | |
JP2023145133A (ja) | カラオケ装置 | |
JP2016014781A (ja) | 歌唱合成装置および歌唱合成プログラム | |
JP2014046018A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6196571B2 (ja) | 演奏装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |