CN111261185A - 播放音频的方法、装置、系统、设备及存储介质 - Google Patents
播放音频的方法、装置、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN111261185A CN111261185A CN202010028354.2A CN202010028354A CN111261185A CN 111261185 A CN111261185 A CN 111261185A CN 202010028354 A CN202010028354 A CN 202010028354A CN 111261185 A CN111261185 A CN 111261185A
- Authority
- CN
- China
- Prior art keywords
- vibration
- audio
- target
- time interval
- striking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000009527 percussion Methods 0.000 claims abstract description 132
- 238000012545 processing Methods 0.000 claims description 55
- 238000000926 separation method Methods 0.000 claims description 24
- 230000015654 memory Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 11
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003238 somatosensory effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
- G10H1/04—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
- G10H1/043—Continuous modulation
- G10H1/045—Continuous modulation by electromechanical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/056—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/265—Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
- G10H2220/311—Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors with controlled tactile or haptic feedback effect; output interfaces therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/435—Gensound percussion, i.e. generating or synthesising the sound of a percussion instrument; Control of specific aspects of percussion sounds, e.g. harmonics, under the influence of hitting force, hitting position, settings or striking instruments such as mallet, drumstick, brush or hand
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2400/00—Loudspeakers
- H04R2400/03—Transducers capable of generating both sound as well as tactile vibration, e.g. as used in cellular phones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Electrophonic Musical Instruments (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本申请公开了一种播放音频的方法、装置、系统、设备及存储介质,属于互联网技术领域。所述方法包括:获取目标音频对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段;同步播放所述目标音频及所述震动控制信息;当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制终端震动。采用本申请能够增加音频的呈现方式,提高播放音频的灵活性。
Description
技术领域
本申请涉及互联网技术领域,特别涉及一种播放音频的方法、装置、系统、设备及存储介质。
背景技术
使用手机收听音乐是现在人们生活中常见的一种收听音乐的方式。
在现有技术中,用户可以通过操作手机,在网络中将音乐的音频下载到手机中,然后通过手机内置的扬声器或外接的耳机等部件将下载的音频进行播放,从而收听音乐。
在实现本申请的过程中,发明人发现现有技术至少存在以下问题:
现有技术中手机只能通过扬声器或耳机将音频播放给用户,呈现音频的方式单一,不够灵活。
发明内容
本申请实施例提供了一种播放音频的方法、装置、系统、设备及存储介质,能够增加音频的呈现方式的多样性,提高播放音频的灵活性。所述技术方案如下:
一方面,提供了一种播放音频的方法,所述方法包括:
获取目标音频对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器打击时段;
同步播放所述目标音频及所述震动控制信息;
当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制终端震动。
可选的,所述获取目标音频对应的震动控制信息之前,所述方法还包括:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的目标打击乐器的乐器类型;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的乐器类型,确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述获取目标音频对应的震动控制信息之前,所述方法还包括:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的音频幅值;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的音频幅值确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述获取目标音频对应的震动控制信息之前,所述方法还包括:
接收所述目标音频的播放指令,获取所述目标音频并对所述目标音频进行解码;
所述同步播放所述目标音频及所述震动控制信息,包括:
当接收所述目标音频的播放指令之后经过预设时长时,同步播放所述目标音频的解码数据及所述震动控制信息。
另一方面,提供了一种播放音频的方法,所述方法用于服务器,所述方法包括:
接收终端发送的目标音频的获取请求;
向所述终端发送所述目标音频和对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段,所述震动控制信息用于指示所述终端在播放所述目标音频的过程中,当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制所述终端震动。
可选的,所述方法还包括:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的目标打击乐器的乐器类型;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的乐器类型,确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述方法还包括:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的音频幅值;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的音频幅值确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述确定所述至少一个打击时段对应的音频幅值,包括:
确定所述至少一个打击时段中所述打击时段内各时间点的音频幅值中的最大音频幅值,作为所述打击时段对应的音频幅值。
可选的,所述基于所述至少一个打击时段确定所述至少一个震动时段,包括:
如果所述至少一个打击时段的时长总和在所述目标音频的总时长中所占的比例在预设比例范围内,则基于所述至少一个打击时段确定所述至少一个震动时段。
可选的,所述基于所述至少一个打击时段确定所述至少一个震动时段,包括:
如果所述至少一个打击时段的个数在预设个数范围之内,则基于所述至少一个打击时段确定所述至少一个震动时段。
另一方面,提供了一种播放音频的装置,所述装置用于终端,其所述装置包括:
获取模块,被配置为获取目标音频对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器打击时段;
播放模块,被配置为同步播放所述目标音频及所述震动控制信息;
控制模块,被配置为当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制终端震动。
可选的,所述装置还包括处理模块,被配置为:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的目标打击乐器的乐器类型;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的乐器类型,确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述处理模块,被配置为:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的音频幅值;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的音频幅值确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述装置还包括解码模块,被配置为:
接收所述目标音频的播放指令,获取所述目标音频并对所述目标音频进行解码;
所述播放模块,被配置为:
当接收所述目标音频的播放指令之后经过预设时长时,同步播放所述目标音频的解码数据及所述震动控制信息。
另一方面,提供了一种播放音频的装置,所述装置用于服务器,所述装置包括:
接收模块,被配置为接收终端发送的目标音频的获取请求;
发送模块,被配置为向所述终端发送所述目标音频和对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段,所述震动控制信息用于指示所述终端在播放所述目标音频的过程中,当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制所述终端震动。
可选的,所述装置还包括处理模块,被配置为:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的目标打击乐器的乐器类型;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的乐器类型,以及预先存储的乐器类型与震动属性信息的对应关系,确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述处理模块,被配置为:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的音频幅值;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的音频幅值确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述处理模块,被配置为:
确定所述至少一个打击时段中打击时段内各时间点的音频幅值中的最大音频幅值,作为所述打击时段对应的音频幅值。
可选的,所述处理模块,被配置为:
如果所述至少一个打击时段的时长总和在所述目标音频的总时长中所占的比例在预设比例范围内,则基于所述至少一个打击时段确定所述至少一个震动时段。
可选的,所述第三处理模块或第四处理模块,被配置为:
如果所述至少一个打击时段的个数在预设个数范围之内,则基于所述至少一个打击时段确定所述至少一个震动时段。
再一方面,提供了一种播放音频的系统,所述系统包括终端和服务器,其中:
所述终端,向所述服务器发送目标音频的获取请求;接收所述服务器发送的所述目标音频和目标音频对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段;播放所述目标音频;当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制终端震动;
所述服务器,接收所述终端发送的目标音频的获取请求;向所述终端发送所述目标音频和对应的震动控制信息。
再一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的播放音频的方法所执行的操作。
再一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如上所述的播放音频的方法所执行的操作。
本申请实施例提供的技术方案带来的有益效果是:
通过获取目标音频对应的震动控制信息,并在播放目标音频时,通过震动控制信息控制终端震动,使终端除了可以通过扬声器或耳机将音频播放给用户,还可以通过震动对音频进行呈现,从而能够增加终端播放音频的呈现方式的多样性,提高播放音频的灵活性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种播放音频的方法流程图;
图2是本申请实施例提供的一种播放音频的方法流程图;
图3是本申请实施例提供的一种播放音频的方法示意图;
图4是本申请实施例提供的一种播放音频的方法示意图;
图5是本申请实施例提供的一种播放音频的装置结构示意图;
图6是本申请实施例提供的一种播放音频的装置结构示意图;
图7是本申请实施例提供的终端结构示意图;
图8是本申请实施例提供的服务器结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请提供的播放音频的方法可以由终端实现或由终端和服务器共同实现。终端可以运行有具有播放音频的应用程序,如音频播放应用程序,终端可以具备麦克风、耳机、扬声器、摄像头等部件,另外,终端还具备震动马达,该震动马达可以是但不限制于转子马达或是线性马达中的一种。终端具有通信功能,可以接入互联网,终端可以是手机、平板电脑、智能穿戴设备、台式计算机、笔记本电脑等。服务器可以是上述应用程序的后台服务器,服务器可以与终端建立通信。该服务器可以是一个单独的服务器也可以是一个服务器组,如果是单独的服务器,该服务器可以负责下述方案中的所有处理,如果是服务器组,服务器组中的不同服务器分别可以负责下述方案中的不同处理,具体的处理分配情况可以由技术人员根据实际需求任意设置,此处不再赘述。
用户可以通过终端中安装的音乐播放应用程序,在网络上下载音乐,并通过终端播放下载的音乐。而人对声音除了通过听觉进行感知之外,还可以通过触感感受音乐中节奏的强度。例如,当人靠近正在播放音乐的大功率的音响时,可以感受到音响在播放重低音时的震动。本申请实施例可以通过终端播放音乐时,控制终端中震动马达的震动,从而给带来听觉和触觉上的反馈。
图1是本申请实施例提供的一种播放音频的方法流程图,该实施例可用于终端。参见图1,该实施例包括:
步骤101、获取目标音频对应的震动控制信息。
其中,震动控制信息中记录有至少一个震动时段和至少一个震动时段对应的震动属性信息,每个震动时段分别对应目标音频中的目标打击乐器的打击时段。
震动控制信息可以为一个控制终端震动的震动控制文件,终端可以通过执行该文件来控制终端中的震动马达进行震动。震动属性信息中可以包括每个震动时段的震动强度和震动频率,还可以包括在每个震动时段中震动强度变化和震动频率变化等信息。
在实施中,音乐播放应用程序中可以设置有音效选项,当用户点击音效选项之后,可以选择音乐播放应用程序中设置的各种音效,其中,包括体感音效。在用户选择体感音效之后,当用户要通过音乐播放应用程序播放目标音频时,可将目标音频进行处理,得到对应的震动控制信息。其中,目标音频终端预先存储的音频或是音乐播放应用程序下载获取得到的音频。
其中,终端将目标音频进行处理得到对应的震动控制信息,可包括以下两种处理方式。
方式一:对目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;在至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定至少一个打击时段对应的音频幅值;基于至少一个打击时段确定至少一个震动时段,并基于至少一个打击时段对应的音频幅值确定至少一个震动时段对应的震动属性信息,生成震动控制信息。
在实施中,可以将目标音频输入到在终端中预先训练好的声源分离模型中得到音频对应的目标打击乐器的音频。其中,得到的目标打击乐器可以为一种,也可以为多种,例如架子鼓、三角铁等。在确定目标音频对应的目标打击乐器的音频之后,可以通过目标打击乐器的音频中的波形动态变化,确定目标打击乐器的各打击时段,即目标打击乐器打击声音的开始时刻和结束时刻,并确定每个打击时段中音频的幅值。然后通过目标打击乐器的各打击时段的开始时刻和结束时刻确定开始时刻和结束时刻相同的震动时段,并根据每个打击时段中音频的幅值确定每个震动时段对应的震动属性信息,可以根据打击时段中各个音频帧的平均音频幅值或最大音频幅值作为打击时段对应的音频幅值,然后根据预先存储的音频幅值和震动属性信息确定震动时段对应的震动属性信息。最后根据震动时段和震动时段对应的震动属性信息生成音频对应的震动控制信息。
方式二:对目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;在至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定至少一个打击时段对应的目标打击乐器的乐器类型;基于至少一个打击时段确定至少一个震动时段,并基于至少一个打击时段对应的乐器类型,以及预先存储的乐器类型与震动属性信息的对应关系,确定至少一个震动时段对应的震动属性信息,生成震动控制信息。
在实施中,将目标音频输入到预先训练好的声源分离模型中得到目标音频对应的目标打击乐器的音频。通过目标打击乐器的音频中的波形动态变化,确定目标打击乐器的各打击时段,以及对应的震动时段。然后再将各打击时段对应的音频数据转换为频域数据。再根据频域数据中高频和低频的分布,确定目标打击乐器中的各乐器类型,例如,架子鼓中包括的军鼓、低音鼓和镲片,高频占比高的可确定为镲片,低频占比高的可确定为低音鼓,其余可确定为军鼓。然后根据在终端中预先存储的不同乐器类型对应的震动属性信息的对应关系,得到震动时段对应的震动属性信息。再根据震动时段和震动时段对应的震动属性信息生成目标音频对应的震动控制信息。
步骤102、同步播放目标音频及震动控制信息。
在实施中,用户点击音乐播放应用程序中目标音频对应的播放选项时,音频播放应用程序可以向终端发送目标音频的播放指令,可以通过扬声器或外接的耳机对目标音频进行播放,在开始播放音频的同时,执行目标音频对应的震动控制信息。
可选的,接收目标音频的播放指令,获取目标音频并对目标音频进行解码;当接收目标音频的播放指令之后经过预设时长时,同步播放目标音频的解码数据及所述震动控制信息。
在实施中,当终端接收到目标音频的播放指令之后,可对目标音频进行解码,生成终端可播放的解码数据。但由于在实际中终端处理器的处理能力并不稳定,所以终端对目标音频进行解码的时长并不确定,从而使目标音频的播放时间不能确定,导致震动控制信息中的震动时段与目标音频中的打击时段在时间可能不会重合。为了使震动控制信息中的震动时段与目标音频中的打击时段在时间上重合,可在终端设置一个预设时长。当终端接收到目标音频的播放指令时,可在该预设时长内对目标音频进行解码,在终端接收到目标音频的播放指令之后达到预设时长时,可开始播放目标音频对应的解码数据,同时根据目标音频对应的震动控制信息控制终端震动。
步骤103、当播放到至少一个震动时段中的任一震动时段时,基于任一震动时段对应的震动属性信息,控制终端震动。
在实施中,在终端播放音频的过程中,音乐播放应用程序可以根据目标音频对应的震动控制信息中记录的震动时段、和震动属性信息,控制终端中的震动马达进行震动。可以在终端播放到目标音频中打击时段之前的预设发送时长时,向终端发送震动控制指令,其中震动控制指令携带有震动属性信息和震动时段,终端接收到控制指令之后,可震动控制指令中携带震动属性信息和震动时段,在终端播放到目标音频中打击时段时,控制终端中的震动马达进行震动。
本申请实施例通过获取目标音频对应的震动控制信息,并在播放目标音频时,通过震动控制信息控制终端震动,使终端除了可以提供扬声器或耳机将音频播放给用户,还可以通过震动对音频进行呈现,从而能够增加终端播放音频的呈现方式的多样性,提高播放音频的灵活性。
图2是本申请实施例提供的一种播放音频的方法,该实施例为终端和服务器共同实现播放音频的方法流程,参见图2,该实施例包括:
步骤201、服务器接收终端发送的目标音频的获取请求。
在实施中,用户可以操作音乐播放应用程序播放目标音频,当目标音频没有在终端存储时,终端可以向服务器发送目标音频对应的获取请求,服务器在接收到终端发送的目标音频对应的获取请求后,可以判断目标音频是否对应有震动控制信息。
步骤202、服务器向终端发送目标音频和对应的震动控制信息。
其中,震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应目标音频中的目标打击乐器的打击时段,震动控制信息用于指示终端在播放目标音频的过程中,当播放到至少一个震动时段中的任一震动时段时,基于任一震动时段对应的震动属性信息,控制终端震动。
在实施中,当目标音频对应有震动控制信息,则服务器可以将目标音频和目标音频对应的震动控制信息,发送给终端。
服务器向终端发送震动控制信息之前,可以将音频库中的音频进行处理,得到各音频对应的震动控制信息。其中可包括以下两种处理方式:
方式一:对目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;在至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的目标打击乐器的乐器类型;基于至少一个打击时段确定至少一个震动时段,并基于至少一个打击时段对应的乐器类型,以及预先存储的乐器类型与震动属性信息的对应关系,确定至少一个震动时段对应的震动属性信息,生成震动控制信息。
在实施中,音频库中除了存储有各种音乐的音频之外,还可以存储有音乐对应的种类信息,例如,抒情类音乐、纯音乐、嘻哈、电子等。一般抒情类音乐、纯音乐等节奏较慢的音乐不适合在播放时配合终端震动,所以可不对抒情类音乐、纯音乐等节奏较慢的音乐进行处理。则服务器可以根据音乐的种类信息,选择需要进行处理并生成震动控制信息的音频,例如,可以只处理嘻哈、电子等种类的音频。一般音频中包括多个音轨信息,音频中不同的乐器和人声对应有不同的音轨信息,服务器可以获取其中目标打击乐器对应的音轨信息,得到目标打击乐器的音频。当服务器无法直接得到音频的各音轨信息时,可以通过预先训练好的声源分离模型得到音频对应的目标打击乐器的音频,如图3所示。当确定音频对应的目标打击乐器的音频之后,可以通过目标打击乐器的音频中的波形动态变化,确定目标打击乐器的各打击时段,即目标打击乐器打击声音的开始时刻和结束时刻,以及每个打击时段中音频的幅值。如图4所示,服务器可以根据确定目标打击乐器的打击时段设置同等时长的震动时段。并根据每个打击时段中音频的幅值确定震动时段对应的震动属性信息,从而得到音频对应的震动控制信息。
可选的,确定所述至少一个打击时段中打击时段内各时间点的音频幅值中的最大音频幅值,作为打击时段对应的音频幅值。
在实施中,可以确定目标音频中各打击时段最大音频幅值,将最大音频幅值作为打击时段的音频对应的幅值。预先存储的音频幅值和震动属性信息确定震动时段对应的震动属性信息。然后根据震动时段和震动时段对应的震动属性信息生成音频对应的震动控制信息。
方式二:对目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;在至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定至少一个打击时段对应的音频幅值;基于至少一个打击时段确定至少一个震动时段,并基于至少一个打击时段对应的音频幅值确定至少一个震动时段对应的震动属性信息,生成震动控制信息。
在实施中,服务器可以将目标音频输入到预先训练好的声源分离模型中得到目标音频对应的目标打击乐器的音频。通过目标打击乐器的音频中的波形动态变化,确定目标打击乐器的各打击时段,以及对应的震动时段。然后再将各打击时段对应的音频数据转换为频域数据。再根据频域数据中高频和低频的分布,确定目标打击乐器中的各乐器类型,例如,架子鼓中包括的军鼓、低音鼓和镲片,高频占比高的可确定为镲片,低频占比高的可确定为低音鼓,其余可确定为军鼓。然后根据在终端中预先存储的不同乐器类型对应的震动属性信息的对应关系,得到震动时段对应的震动属性信息。最后根据震动时段和震动时段对应的震动属性信息生成目标音频对应的震动控制信息。
可选的,服务器对音频库中的音频进行处理得到各音频对应的震动控制信息的过程中,可以根据音频中的信息,检测对应的音频是否适合终端边播放边进行震动,对适合边播放边进行震动的音频生成震动控制信息。其中,可通过以下两种方式进行确定。
方式一:如果至少一个打击时段的时长总和在目标音频的总时长中所占的比例在预设比例范围内,则基于至少一个打击时段确定至少一个震动时段。
在实施中,在确定目标音频中各个打击时段的时长之后,可确定目标音频中所有打击时段的时长总和。若所有打击时段的时长总和目标音频的总时长的比值在预设比例范围之内时,则可以根据确定的目标音频中的各打击时段确定震动时段,并根据打击时段对应的音频幅值确定震动时段对应的震动属性信息,从而得到震动控制信息。然后将得到的目标音频对应的震动控制信息上传至音乐库中。
方式二:如果至少一个打击时段的时长总和在目标音频的总时长中所占的比例在预设比例范围内,则基于至少一个打击时段确定至少一个震动时段。
在实施中,在确定目标音频中各个打击时段的时长之后,可确定目标音频中所有打击时段的个数。若所有打击时段的个数在预设个数范围之内时,则可以根据确定的目标音频中的各打击时段确定震动时段,并根据打击时段对应的音频幅值确定震动时段对应的震动属性信息,从而得到震动控制信息。然后将得到的目标音频对应的震动控制信息上传至音乐库中。
另外,服务器还可以对已的震动控制信息进行检测,根据震动控制信息判断震动控制信息对应的音频是否适合在终端边播放边进行震动。
在实施中,在震动控制信息上传到音频库之前,服务器可对震动控制信息进行检测,当震动控制信息中记录的各打击时段的时长总和在目标音频的总时长中所占的比例不在预设比例范围内,或震动控制信息中记录的各打击时段个数不在预设个数范围之内,则可将对应的震动控制信息删除,即不将震动控制信息上传至音乐库中。
步骤203、终端同步播放目标音频及震动控制信息。
在实施中,终端接收服务器发送的目标音频和目标音频对应的震动控制信息。之后,音频播放应用程序可以向终端发送目标音频的播放指令,可以通过扬声器或外接的耳机对目标音频进行播放,在开始播放音频的同时,执行目标音频对应的震动控制信息。
可选的,接收目标音频的播放指令,获取目标音频并对目标音频进行解码;当接收目标音频的播放指令之后经过预设时长时,播放目标音频的解码数据。
在实施中,当终端接收到目标音频的播放指令之后,可对目标音频进行解码,生成终端可播放的解码数据。但由于在实际中终端处理器的处理能力并不稳定,所以终端对目标音频进行解码的时长并不确定,从而使目标音频的播放时间不能确定,导致震动控制信息中的震动时段与目标音频中的打击时段在时间可能不会重合。为了使震动控制信息中的震动时段与目标音频中的打击时段在时间上重合,可在终端设置一个预设时长。当终端接收到目标音频的播放指令时,可在该预设时长内对目标音频进行解码,在终端接收到目标音频的播放指令之后达到预设时长时,可开始播放目标音频对应的解码数据,同时根据目标音频对应的震动控制信息控制终端震动。
步骤204、当播放到至少一个震动时段中的任一震动时段时,基于任一震动时段对应的震动属性信息,控制终端震动。
在实施中,在终端播放音频的过程中,音乐播放应用程序可以根据目标音频对应的震动控制信息中记录的震动时段、以及震动属性信息,控制终端中的马达进行震动。可以在终端播放到目标音频中打击时段之前的预设发送时长时,向终端发送震动控制指令,其中震动控制指令携带有震动属性信息和震动时段,终端接收到控制指令之后,可震动控制指令中携带震动属性信息和震动时段,在终端播放到目标音频中打击时段时,控制终端中的震动马达进行震动。
本申请实施例通过获取目标音频对应的震动控制信息,并在播放目标音频时,通过震动控制信息控制终端震动,使终端除了可以提供扬声器或耳机将音频播放给用户,还可以通过震动对音频进行呈现,从而能够增加终端播放音频的呈现方式的多样性,提高播放音频的灵活性。
上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
图5时本申请实施例提供的一种播放音频的装置,该装置可以是上述实施例中的终端,如图5所示,所述装置包括:
获取模块510,被配置为获取目标音频对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段;
播放模块520,被配置为同步播放所述目标音频及所述震动控制信息;
控制模块530,被配置为当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制终端震动。
可选的,所述装置还包括处理模块,被配置为:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的目标打击乐器的乐器类型;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的乐器类型,以及预先存储的乐器类型与震动属性信息的对应关系,确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述装置还包括处理模块,被配置为:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的音频幅值;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的音频幅值确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述装置还包括解码模块,被配置为:
接收所述目标音频的播放指令,获取所述目标音频并对所述目标音频进行解码;
所述播放模块520,被配置为:
当接收所述目标音频的播放指令之后经过预设时长时,同步播放所述目标音频的解码数据及所述震动控制信息。
图6时本申请实施例提供的一种播放音频的装置,该装置可以是上述实施例中的服务器,如图6所示,所述装置包括:
接收模块610,被配置为接收终端发送的目标音频的获取请求;
发送模块620,被配置为向所述终端发送所述目标音频和对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段,所述震动控制信息用于指示所述终端在播放所述目标音频的过程中,当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制所述终端震动。
可选的,所述装置还包括处理模块,被配置为:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的目标打击乐器的乐器类型;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的乐器类型,以及预先存储的乐器类型与震动属性信息的对应关系,确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述装置还包括处理模块,被配置为:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的音频幅值;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的音频幅值确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
可选的,所述处理模块,被配置为:
对于每个打击时段,确定所述打击时段内各时间点的音频幅值中的最大音频幅值,作为所述打击时段对应的音频幅值。
可选的,所述处理模块,被配置为:
如果所述至少一个打击时段的时长总和在所述目标音频的总时长中所占的比例在预设比例范围内,则基于所述至少一个打击时段确定所述至少一个震动时段。
可选的,所述处理模块,被配置为:
如果所述至少一个打击时段的个数在预设个数范围之内,则基于所述至少一个打击时段确定所述至少一个震动时段。
需要说明的是:上述实施例提供的播放音频的装置在播放音频时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的播放音频的装置与播放音频的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本身实施例还提供了一种播放音频的系统,所述系统包括终端和服务器,其中:
所述终端,向所述服务器发送目标音频的获取请求;接收所述服务器发送的所述目标音频和目标音频对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段;播放所述目标音频;当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制终端震动;
所述服务器,接收所述终端发送的目标音频的获取请求;向所述终端发送所述目标音频和对应的震动控制信息。
图7示出了本申请一个示例性实施例提供的终端700的结构框图。该终端700可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端700还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端700包括有:处理器701和存储器702。
处理器701可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器701可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器701也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器701可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器701还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器702可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器702还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器702中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器701所执行以实现本申请中方法实施例提供的播放音频的方法。
在一些实施例中,终端700还可选包括有:外围设备接口703和至少一个外围设备。处理器701、存储器702和外围设备接口703之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口703相连。具体地,外围设备包括:射频电路704、触摸显示屏705、摄像头706、音频电路707、定位组件708和电源709中的至少一种。
外围设备接口703可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器701和存储器702。在一些实施例中,处理器701、存储器702和外围设备接口703被集成在同一芯片或电路板上;在一些其他实施例中,处理器701、存储器702和外围设备接口703中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路704用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路704通过电磁信号与通信网络以及其他通信设备进行通信。射频电路704将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路704包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路704可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路704还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏705用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏705是触摸显示屏时,显示屏705还具有采集在显示屏705的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器701进行处理。此时,显示屏705还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏705可以为一个,设置终端700的前面板;在另一些实施例中,显示屏705可以为至少两个,分别设置在终端700的不同表面或呈折叠设计;在再一些实施例中,显示屏705可以是柔性显示屏,设置在终端700的弯曲表面上或折叠面上。甚至,显示屏705还可以设置成非矩形的不规则图形,也即异形屏。显示屏705可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件706用于采集图像或视频。可选地,摄像头组件706包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件706还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路707可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器701进行处理,或者输入至射频电路704以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端700的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器701或射频电路704的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路707还可以包括耳机插孔。
定位组件708用于定位终端700的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件708可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
震动马达717,用于控制终端进行震动,可以通过不同的震动幅度和震动频率,实现不通的震动方式。
电源709用于为终端700中的各个组件进行供电。电源709可以是交流电、直流电、一次性电池或可充电电池。当电源709包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端700还包括有一个或多个传感器710。该一个或多个传感器710包括但不限于:加速度传感器711、陀螺仪传感器712、压力传感器713、指纹传感器714、光学传感器715以及接近传感器716。
加速度传感器711可以检测以终端700建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器711可以用于检测重力加速度在三个坐标轴上的分量。处理器701可以根据加速度传感器711采集的重力加速度信号,控制触摸显示屏705以横向视图或纵向视图进行用户界面的显示。加速度传感器711还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器712可以检测终端700的机体方向及转动角度,陀螺仪传感器712可以与加速度传感器711协同采集用户对终端700的3D动作。处理器701根据陀螺仪传感器712采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器713可以设置在终端700的侧边框和/或触摸显示屏705的下层。当压力传感器713设置在终端700的侧边框时,可以检测用户对终端700的握持信号,由处理器701根据压力传感器713采集的握持信号进行左右手识别或快捷操作。当压力传感器713设置在触摸显示屏705的下层时,由处理器701根据用户对触摸显示屏705的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器714用于采集用户的指纹,由处理器701根据指纹传感器714采集到的指纹识别用户的身份,或者,由指纹传感器714根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器701授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器714可以被设置终端700的正面、背面或侧面。当终端700上设置有物理按键或厂商Logo时,指纹传感器714可以与物理按键或厂商Logo集成在一起。
光学传感器715用于采集环境光强度。在一个实施例中,处理器701可以根据光学传感器715采集的环境光强度,控制触摸显示屏705的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏705的显示亮度;当环境光强度较低时,调低触摸显示屏705的显示亮度。在另一个实施例中,处理器701还可以根据光学传感器715采集的环境光强度,动态调整摄像头组件706的拍摄参数。
接近传感器716,也称距离传感器,通常设置在终端700的前面板。接近传感器716用于采集用户与终端700的正面之间的距离。在一个实施例中,当接近传感器716检测到用户与终端700的正面之间的距离逐渐变小时,由处理器701控制触摸显示屏705从亮屏状态切换为息屏状态;当接近传感器716检测到用户与终端700的正面之间的距离逐渐变大时,由处理器701控制触摸显示屏705从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图7中示出的结构并不构成对终端700的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图8是本申请实施例提供的一种服务器的结构示意图,该服务器800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(Central processingunits,CPU)801和一个或一个以上的存储器802,其中,所述存储器802中存储有至少一条指令,所述至少一条指令由所述处理器801加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括指令的存储器,上述指令可由终端中的处理器执行以完成上述实施例中播放音频的方法。该计算机可读存储介质可以是非暂态的。例如,所述计算机可读存储介质可以是ROM(Read-Only Memory,只读存储器,)、RAM(Random Access Memory,随机存取存储器)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种播放音频的方法,其特征在于,所述方法用于终端,所述方法包括:
获取目标音频对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器打击时段;
同步播放所述目标音频及所述震动控制信息;
当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制终端震动。
2.根据权利要求1所述的方法,其特征在于,所述获取目标音频对应的震动控制信息之前,所述方法还包括:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的目标打击乐器的乐器类型;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的乐器类型,确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
3.根据权利要求1所述的方法,其特征在于,所述获取目标音频对应的震动控制信息之前,所述方法还包括:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的音频幅值;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的音频幅值确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
4.根据权利要求1所述的方法,其特征在于,所述获取目标音频对应的震动控制信息之前,所述方法还包括:
接收所述目标音频的播放指令,获取所述目标音频并对所述目标音频进行解码;
所述同步播放所述目标音频及所述震动控制信息,包括:
当接收所述目标音频的播放指令之后经过预设时长时,同步播放所述目标音频的解码数据及所述震动控制信息。
5.一种播放音频的方法,其特征在于,所述方法用于服务器,所述方法包括:
接收终端发送的目标音频的获取请求;
向所述终端发送所述目标音频和对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段,所述震动控制信息用于指示所述终端在播放所述目标音频的过程中,当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制所述终端震动。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的目标打击乐器的乐器类型;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的乐器类型,确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
7.根据权利要求5所述的方法,其特征在于,所述方法还包括:
对所述目标音频进行声源分离处理,得到至少一种目标打击乐器的音频;
在所述至少一种目标打击乐器的音频中,确定至少一个打击时段,并确定所述至少一个打击时段对应的音频幅值;
基于所述至少一个打击时段确定所述至少一个震动时段,并基于所述至少一个打击时段对应的音频幅值确定所述至少一个震动时段对应的震动属性信息,生成所述震动控制信息。
8.根据权利要求7所述的方法,其特征在于,所述确定所述至少一个打击时段对应的音频幅值,包括:
确定所述至少一个打击时段中所述打击时段内各时间点的音频幅值中的最大音频幅值,作为所述打击时段对应的音频幅值。
9.根据权利要求6或7任一项所述的方法,其特征在于,所述基于所述至少一个打击时段确定所述至少一个震动时段,包括:
如果所述至少一个打击时段的时长总和在所述目标音频的总时长中所占的比例在预设比例范围内,则基于所述至少一个打击时段确定所述至少一个震动时段。
10.根据权利要求6或7任一项所述的方法,其特征在于,所述基于所述至少一个打击时段确定所述至少一个震动时段,包括:
如果所述至少一个打击时段的个数在预设个数范围之内,则基于所述至少一个打击时段确定所述至少一个震动时段。
11.一种播放音频的装置,其特征在于,所述装置用于终端,包括:
获取模块,被配置为获取目标音频对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段;
播放模块,被配置为同步播放所述目标音频及所述震动控制信息;
控制模块,被配置为当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制终端震动。
12.一种播放音频的装置,其特征在于,所述装置用于服务器,包括:
接收装置,被配置为接收终端发送的目标音频的获取请求;
发送装置,被配置为向所述终端发送所述目标音频和对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段,所述震动控制信息用于指示所述终端在播放所述目标音频的过程中,当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制所述终端震动。
13.一种播放音频的系统,其特征在于,所述系统包括终端和服务器,其中:
所述终端,向所述服务器发送目标音频的获取请求;接收所述服务器发送的所述目标音频和对应的震动控制信息,其中,所述震动控制信息中记录有至少一个震动时段和所述至少一个震动时段对应的震动属性信息,每个震动时段分别对应所述目标音频中的目标打击乐器的打击时段;播放所述目标音频;当播放到所述至少一个震动时段中的任一震动时段时,基于所述任一震动时段对应的震动属性信息,控制终端震动;
所述服务器,接收所述终端发送的目标音频的获取请求;向所述终端发送所述目标音频和对应的震动控制信息。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求1至权利要求10任一项所述的播放音频的方法所执行的操作。
15.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如权利要求1至权利要求10任一项所述的播放音频的方法所执行的操作。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010028354.2A CN111261185A (zh) | 2020-01-10 | 2020-01-10 | 播放音频的方法、装置、系统、设备及存储介质 |
PCT/CN2020/138910 WO2021139535A1 (zh) | 2020-01-10 | 2020-12-24 | 播放音频的方法、装置、系统、设备及存储介质 |
CN202080092452.0A CN114945892A (zh) | 2020-01-10 | 2020-12-24 | 播放音频的方法、装置、系统、设备及存储介质 |
US17/860,425 US12147729B2 (en) | 2020-01-10 | 2022-07-08 | Method and system for playing audios |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010028354.2A CN111261185A (zh) | 2020-01-10 | 2020-01-10 | 播放音频的方法、装置、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111261185A true CN111261185A (zh) | 2020-06-09 |
Family
ID=70948618
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010028354.2A Pending CN111261185A (zh) | 2020-01-10 | 2020-01-10 | 播放音频的方法、装置、系统、设备及存储介质 |
CN202080092452.0A Pending CN114945892A (zh) | 2020-01-10 | 2020-12-24 | 播放音频的方法、装置、系统、设备及存储介质 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080092452.0A Pending CN114945892A (zh) | 2020-01-10 | 2020-12-24 | 播放音频的方法、装置、系统、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN111261185A (zh) |
WO (1) | WO2021139535A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112086080A (zh) * | 2020-09-11 | 2020-12-15 | 北京奇艺世纪科技有限公司 | 音乐节奏反馈方法、装置、电子设备及系统 |
CN112604271A (zh) * | 2020-12-07 | 2021-04-06 | 杭州雾联科技有限公司 | 一种云游戏系统控制方法、装置、设备及可读存储介质 |
WO2021139535A1 (zh) * | 2020-01-10 | 2021-07-15 | 腾讯音乐娱乐科技(深圳)有限公司 | 播放音频的方法、装置、系统、设备及存储介质 |
CN114115792A (zh) * | 2021-11-25 | 2022-03-01 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频处理方法、服务器及电子设备 |
CN116095380A (zh) * | 2023-04-11 | 2023-05-09 | 腾讯科技(深圳)有限公司 | 一种振动处理方法及相关设备 |
US12147729B2 (en) | 2020-01-10 | 2024-11-19 | Tencent Music Entertainment Technology (Shenzhen) Co., Ltd. | Method and system for playing audios |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2705418A1 (en) * | 2009-05-27 | 2010-11-27 | Maria Karam | System and method for displaying sound as vibrations |
US20120216666A1 (en) * | 2011-02-25 | 2012-08-30 | Mark Fresolone | Visual, tactile and motion-sensation system for representing music for an audience |
CN102736732A (zh) * | 2006-04-13 | 2012-10-17 | 伊默生公司 | 从数字音频信号自动产生触觉事件的系统和方法 |
CN104506114A (zh) * | 2014-12-15 | 2015-04-08 | 青岛海信移动通信技术股份有限公司 | 一种移动终端中的马达控制方法及装置 |
CN105976852A (zh) * | 2016-04-28 | 2016-09-28 | 上海斐讯数据通信技术有限公司 | 一种音乐播放器 |
CN114945892A (zh) * | 2020-01-10 | 2022-08-26 | 腾讯音乐娱乐科技(深圳)有限公司 | 播放音频的方法、装置、系统、设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7457741B2 (en) * | 2004-03-30 | 2008-11-25 | National Institute of Advnaced Industrial Science and Technology | Device for transmitting speech information |
CN106713668B (zh) * | 2017-02-21 | 2021-07-09 | 腾讯科技(深圳)有限公司 | 控制终端震动的方法和装置 |
CN107948874A (zh) * | 2017-11-28 | 2018-04-20 | 维沃移动通信有限公司 | 一种终端控制方法、移动终端 |
-
2020
- 2020-01-10 CN CN202010028354.2A patent/CN111261185A/zh active Pending
- 2020-12-24 CN CN202080092452.0A patent/CN114945892A/zh active Pending
- 2020-12-24 WO PCT/CN2020/138910 patent/WO2021139535A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102736732A (zh) * | 2006-04-13 | 2012-10-17 | 伊默生公司 | 从数字音频信号自动产生触觉事件的系统和方法 |
CA2705418A1 (en) * | 2009-05-27 | 2010-11-27 | Maria Karam | System and method for displaying sound as vibrations |
US20120216666A1 (en) * | 2011-02-25 | 2012-08-30 | Mark Fresolone | Visual, tactile and motion-sensation system for representing music for an audience |
CN104506114A (zh) * | 2014-12-15 | 2015-04-08 | 青岛海信移动通信技术股份有限公司 | 一种移动终端中的马达控制方法及装置 |
CN105976852A (zh) * | 2016-04-28 | 2016-09-28 | 上海斐讯数据通信技术有限公司 | 一种音乐播放器 |
CN114945892A (zh) * | 2020-01-10 | 2022-08-26 | 腾讯音乐娱乐科技(深圳)有限公司 | 播放音频的方法、装置、系统、设备及存储介质 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021139535A1 (zh) * | 2020-01-10 | 2021-07-15 | 腾讯音乐娱乐科技(深圳)有限公司 | 播放音频的方法、装置、系统、设备及存储介质 |
US12147729B2 (en) | 2020-01-10 | 2024-11-19 | Tencent Music Entertainment Technology (Shenzhen) Co., Ltd. | Method and system for playing audios |
CN112086080A (zh) * | 2020-09-11 | 2020-12-15 | 北京奇艺世纪科技有限公司 | 音乐节奏反馈方法、装置、电子设备及系统 |
CN112086080B (zh) * | 2020-09-11 | 2024-09-06 | 北京奇艺世纪科技有限公司 | 音乐节奏反馈方法、装置、电子设备及系统 |
CN112604271A (zh) * | 2020-12-07 | 2021-04-06 | 杭州雾联科技有限公司 | 一种云游戏系统控制方法、装置、设备及可读存储介质 |
CN112604271B (zh) * | 2020-12-07 | 2024-07-19 | 杭州雾联科技有限公司 | 一种云游戏系统控制方法、装置、设备及可读存储介质 |
CN114115792A (zh) * | 2021-11-25 | 2022-03-01 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频处理方法、服务器及电子设备 |
CN116095380A (zh) * | 2023-04-11 | 2023-05-09 | 腾讯科技(深圳)有限公司 | 一种振动处理方法及相关设备 |
WO2024212738A1 (zh) * | 2023-04-11 | 2024-10-17 | 腾讯科技(深圳)有限公司 | 一种振动处理方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114945892A (zh) | 2022-08-26 |
WO2021139535A1 (zh) | 2021-07-15 |
US20220342631A1 (en) | 2022-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110688082B (zh) | 确定音量的调节比例信息的方法、装置、设备及存储介质 | |
CN111261185A (zh) | 播放音频的方法、装置、系统、设备及存储介质 | |
CN109448761B (zh) | 播放歌曲的方法和装置 | |
CN111048111B (zh) | 检测音频的节奏点的方法、装置、设备及可读存储介质 | |
CN111061405B (zh) | 录制歌曲音频的方法、装置、设备及存储介质 | |
CN110931053B (zh) | 检测录音时延、录制音频的方法、装置、终端及存储介质 | |
CN108335703B (zh) | 确定音频数据的重音位置的方法和装置 | |
CN108922506A (zh) | 歌曲音频生成方法、装置和计算机可读存储介质 | |
CN109192218B (zh) | 音频处理的方法和装置 | |
CN111105769B (zh) | 检测音频的中频节奏点的方法、装置、设备和存储介质 | |
CN108831425B (zh) | 混音方法、装置及存储介质 | |
CN111327928A (zh) | 歌曲播放方法、装置及系统、计算机存储介质 | |
CN111402844B (zh) | 歌曲合唱的方法、装置及系统 | |
CN110266982B (zh) | 在录制视频时提供歌曲的方法和系统 | |
CN109243479B (zh) | 音频信号处理方法、装置、电子设备及存储介质 | |
CN109065068B (zh) | 音频处理方法、装置及存储介质 | |
CN113596516A (zh) | 进行连麦合唱的方法、系统、设备及存储介质 | |
CN111092991B (zh) | 歌词显示方法及装置、计算机存储介质 | |
CN110808021B (zh) | 音频播放的方法、装置、终端及存储介质 | |
CN110234036B (zh) | 一种播放多媒体文件的方法、装置及系统 | |
CN112435643B (zh) | 生成电音风格歌曲音频的方法、装置、设备及存储介质 | |
CN112086102B (zh) | 扩展音频频带的方法、装置、设备以及存储介质 | |
CN112118482A (zh) | 音频文件的播放方法、装置、终端及存储介质 | |
CN111294626A (zh) | 歌词显示的方法和装置 | |
CN112464019B (zh) | 音频播放方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |