CN110377212B - 通过音频触发显示的方法、装置、计算机设备和存储介质 - Google Patents

通过音频触发显示的方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN110377212B
CN110377212B CN201910578564.6A CN201910578564A CN110377212B CN 110377212 B CN110377212 B CN 110377212B CN 201910578564 A CN201910578564 A CN 201910578564A CN 110377212 B CN110377212 B CN 110377212B
Authority
CN
China
Prior art keywords
audio
triggered
area
sound effect
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910578564.6A
Other languages
English (en)
Other versions
CN110377212A (zh
Inventor
蒋红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Yuandi Software Co ltd
Original Assignee
Shanghai Yuandi Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Yuandi Software Co ltd filed Critical Shanghai Yuandi Software Co ltd
Priority to CN201910578564.6A priority Critical patent/CN110377212B/zh
Priority to US16/657,139 priority patent/US20200410967A1/en
Publication of CN110377212A publication Critical patent/CN110377212A/zh
Application granted granted Critical
Publication of CN110377212B publication Critical patent/CN110377212B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/021Background music, e.g. for video sequences or elevator music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays
    • G10H2220/081Beat indicator, e.g. marks or flashing LEDs to indicate tempo or beat positions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs or seven segments displays
    • G10H2220/086Beats per minute [BPM] indicator, i.e. displaying a tempo value, e.g. in words or as numerical value in beats per minute
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/135Musical aspects of games or videogames; Musical instrument-shaped game input interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请涉及一种通过音频触发显示的方法、装置、计算机设备和存储介质。所述方法包括:获取背景音频,背景音频中携带有音效;播放背景音频,当播放到音效时,在显示页面中生成待触发区域;接收输入的触发指令,检测触发指令是否与待触发区域匹配;当触发指令与待触发区域匹配时,根据第一预设效果显示待触发区域。采用本方法能够使得将显示效果与背景音频准确融合,给用户带来更好的体验。

Description

通过音频触发显示的方法、装置、计算机设备和存储介质
技术领域
本申请涉及计算机技术领域,特别是涉及一种通过音频触发显示的方法、装置、计算机设备和存储介质。
背景技术
随着计算机技术和网络信息计算的发展,人们开始通过网络传输和发布信息,网络成为人们娱乐和工作的重要环节,数字音频也成为一种主流的网络数据形式,而随着大数据时代的发展,音频数据的应用也会越来越广泛。
传统地,在显示页面上显示多媒体效果时,通常由用户手动下达指令生成显示效果;若采用音频来控制显示效果,通常是设定好一系列显示效果的变化序列,在播放背景音乐时,将显示效果按照变化序列进行显示;然而,传统的显示效果的触发方式中,背景音乐和显示效果之间并不存在实际联系,在背景音乐更换时,可能出现显示效果无法与背景音乐融合的情况,导致用户的体验较差。
发明内容
基于此,有必要针对上述技术问题,提供一种能够将显示效果与背景音频准确融合的通过音频触发显示的方法、装置、计算机设备和存储介质。
一种通过音频触发显示的方法,所述方法包括:
获取背景音频,所述背景音频中携带有音效;
播放所述背景音频,当播放到所述音效时,在显示页面中生成待触发区域;
接收输入的触发指令,检测所述触发指令是否与所述待触发区域匹配;
当所述触发指令与所述待触发区域匹配时,根据第一预设效果显示所述待触发区域。
在其中一个实施例中,所述背景音频中的音效的添加方式,包括:
获取初始音频;
识别所述初始音频中的节奏点,根据所述节奏点在所述初始音频中标注音效区域;
获取所述音效区域对应的音效音频,将所述音效音频中的音效添加到所述初始音频中的音效区域,得到所述背景音频。
在其中一个实施例中,所述背景音频包括初始音频和所述初始音频对应的标记文件;所述获取背景音频,所述背景音频中携带有音效,包括:
获取初始音频和所述初始音频对应的标记文件,所述标记文件中包含初始音频中添加音效的音效音频和音效区间;
所述播放所述背景音频,当播放到所述音效音频时,在显示页面中生成待触发区域,包括:
播放所述初始音频,并遍历所述标记文件;
当所述初始音频播放到所述标记文件中的所述音效区间时,播放所述音效音频,在显示页面中生成待触发区域。
在其中一个实施例中,所述在显示页面中生成待触发区域,包括:
在所述显示页面中的预设位置生成待触发区域,所述待触发区域生成后按照预设移动路径在所述显示页面中移动;
所述接收输入的触发指令,检测所述触发指令是否与所述待触发区域匹配,包括:
接收输入的触发指令,根据所述触发指令在显示页面中触发目标区域;
当所述目标区域被触发时,获取所述待触发区域在所述显示页面上的当前位置;
检测所述目标区域在所述显示页面上的位置与所述当前位置是否一致,若一致,则所述触发指令与所述待触发区域匹配。
在其中一个实施例中,所述播放所述背景音频之后,还包括:
在显示页面中生成初始区域;
所述根据所述触发指令在显示页面中触发目标区域,包括:
根据所述触发指令移动所述初始区域得到目标区域。
在其中一个实施例中,所述在显示页面中生成待触发区域之后,还包括:
当超出预设时长未接收到与所述待触发区域匹配的触发指令时,获取第二预设效果;
根据所述第二预设效果显示所述待触发区域。
在其中一个实施例中,所述根据第一预设效果显示所述待触发区域之后,还包括:
对所述触发指令与所述待触发区域匹配的次数计数,在退出所述显示页面时,输出所述计数结果。
一种通过音频触发显示的装置,所述装置包括:
音频获取模块,用于获取背景音频,所述背景音频中包括音效音频;
区域触发模块,用于播放所述背景音频,当播放到所述音效音频时,在显示页面中生成待触发区域;
指令匹配模块,用于接收输入的触发指令,检测所述触发指令是否与所述待触发区域匹配;
效果显示模块,用于当所述触发指令与所述待触发区域匹配时,根据第一预设效果显示所述待触发区域。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
上述音频触发显示方法、装置、计算机设备和存储介质,终端播放携带有音效的背景音频,当播放到其中添加的音效时,则在显示页面中生成一个待触发的区域,若用户在终端上输入与待触发区域匹配的触发指令时,则在显示页面上触发预设的多媒体信息对应的显示效果;是由背景音频中的音效和用户下达的触发指令控制显示效果的触发和显示,使得显示效果的触发能够更好地融合到背景音乐中,给用户带来更好的体验。
附图说明
图1为一个实施例中通过音频触发显示的效果方法的应用场景图;
图2为一个实施例中通过音频触发显示的效果的流程示意图;
图3为一个实施例中背景音频中的音效的添加方式的流程示意图;
图4为另一个实施例中指令触发步骤的流程示意图;
图5为一个实施例中通过音频触发显示的效果装置的结构框图;
图6为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的通过音频触发显示的方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。服务器104给终端102提供一个实现通过音频触发展示方法的环境,终端102安装此环境,通过此环境在播放背景音频中的音效时,在终端102的显示页面中显示预设的多媒体信息。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种通过音频触发显示的方法,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
S202,获取背景音频,背景音频中携带有音效。
其中,背景音频是终端从服务器上下载的携带有音效的音频文件;可以是mp3、WMA、WAV等等常见的音频格式。是在一段初始音频中添加了音效的之后生成的音频文件。背景音频的生成可以是服务器获取一首歌曲等初始音频,将枪声、鸟鸣声等等音效添加到初始音频的一些设定的区域中得到的。可选地,在初始音频中添加音效的具体方式,可以是将初始音频放入一个音轨中,将音效音频放入另外一个音轨,调整音效在音轨中的位置,从而调整音效添加到初始音频中的位置,最后合成初始音乐的音轨和音效的音轨,得到背景音频。
具体地,终端获取背景音频后,需要通过服务器提供给终端的解析环境,使得终端能够播放此背景音频,解析的操作可以包括对终端无法播放的背景音频的格式进行格式转化等操作,此解析环境可以是终端上安装的实现通过音频触发显示的方法的操作页面或者APP等。
S204,播放背景音频,当播放到音效时,在显示页面中生成待触发区域。
其中,显示页面是终端上用于显示输出效果的页面;如手机、电脑等的屏幕等等。
具体地,终端通过步骤S202中对背景音频解析成功后,即播放解析得到的背景音频,当背景音频播放到其中添加的音效部分时,在终端的显示页面生成一个用于触发的待触发区域,此待触发区域可以是在显示页面中生成的一个或多个方块区域或者圆形区域等形状的区域,待触发区域的渲染效果可根据输出需要进行设置,例如将方块区域或者圆形区域的边缘渲染为彩色等等。
S206,接收输入的触发指令,检测触发指令是否与待触发区域匹配。
其中,触发指令是用户在终端上通过输入设备输入的、对待触发区域进行触发的指令;例如,用户可以通过触摸屏在智能手机、平板电脑等终端的屏幕上点击待触发区域,对手机或平板电脑等终端下达触发指令。
具体地,终端生成待触发区域后,需要用户对终端下达与待触发区域匹配的触发指令,才可以触发对应的显示效果;用户通过输入设备向终端下达触发指令,终端接收到触发指令后,对触发指令与待触发区域是否匹配进行检测,来判断是否应显示对应的触发效果。终端检测触发指令与待触发区域是否匹配的方法,可以是,当待触发区域为显示页面上的方形或者圆形区域时,触发指令对应的触发区域若落在待触发区域,则终端判定触发指令与待触发区域匹配;触发指令对应的触发区域若未落在待触发区域,则终端判定触发指令与待触发区域不匹配。
S208,当触发指令与待触发区域匹配时,根据第一预设效果显示待触发区域。
其中,第一预设效果是此音效触发的待触发区域的显示效果,可以是多种媒体效果,可以将待触发区域的显示效果变为预设的触发效果,如,变化待触发区域的边框的颜色,或者在显示界面中显示一个赞扬的表情,或将待触发区域对应的方形或者圆形显示为碎裂消失的效果等等。
具体地,当终端检测到输入的触发指令与待触发区域匹配时,获取作为触发指令成功触发待触发区域的反馈的第一预设效果,将待触发区域的显示效果切换成第一预设效果,显示给终端用户。
上述通过音频触发显示的方法,终端播放携带有音效的背景音频,当播放到其中添加的音效时,则在显示页面中生成一个待触发的区域,若用户在终端上输入与待触发区域匹配的触发指令时,则在显示页面上触发第一预设效果来显示待触发区域;上述方法中,由背景音频中的音效和用户下达的触发指令共同控制显示效果的触发和显示,使得显示效果的触发能够更好地融合到背景音乐中,给用户带来更好的体验。
在一个实施例中,请参见图3,上述通过音频触发显示的方法中,背景音频中的音效的添加方式,可以包括:
S302,获取初始音频。
初始音频是包含待添加音效的音频文件,可以是mp3、WMA、WAV等等常见的音频格式;初始音频可以是从网络资源中下载的一首歌或者一段音乐。服务器在向初始音频中添加音效时,需要先获取到初始音频。
S304,识别初始音频中的节奏点,根据节奏点在初始音频中标注音效区域。
其中,节奏点是服务器对初始音频中的节奏进行识别得到的、用以表征对应着初始音乐的节奏的点;服务器可以通过设定的节奏识别规则,识别出初始音频中的节奏点的位置;节奏识别规则可以是,获取初始音频在播放时对应的频谱,捕捉到频谱中的重复频段,或根据初始音频的播放时声音的强弱、高低等等因素来识别。
可选地,服务器识别初始音频的节奏点的方式可以是:鉴定初始音频的节拍属性,得到初始音频的节拍点;分析初始音频的频谱,得到初始音频的频谱中的特征点;将初始的节拍点和初始音频频谱中的特征点匹配,获取初始音频的节奏点。具体地,节拍属性是指初始音频的BMP(标识音乐每分钟的节拍数)属性。服务器对初始音频中BMP的鉴定,可以通过常用的音乐分析软件,如节拍器、BPM测试工具(MixMeister BPM Analyzer)等等,来获取初始音频的节拍属性,并识别出初始音频中表征节拍属性的节拍点;进一步地,对于歌曲类的初始音频,常包括主歌、副歌、间奏等部分,为了更准确地识别这类初始音频的节奏属性、标注节奏点,可以将歌曲类初始音频按照主歌、副歌、间奏进行分段,并对分段后的音频区间进行BMP鉴定,最后将每一段的BMP进行融合,最终得到歌曲类初始音频的节拍点。服务器根据频谱分析将初始音频的频谱解析出来,具体可以通过FFT(Fast FourierTransformation,离散傅氏变换的快速算法)频谱分析等分析方法,或者采用Cubase等频谱分析工具等进行频谱解析;而对于频谱中特征点的获取,可以通过设置特征点获取规则来进行获取,例如可以将频谱中db(分贝)高于一个通过经验和实验调整得到的预设值的点作为一个特征点。服务器将步骤S202中获取的节拍点和步骤S204中获取的特征点进行匹配,得到初始音频的节奏点;可选地,可以选取节拍点和特征点重合的点作为初始音频的节奏点。服务器通过对初始音频的节拍属性和频谱双重分析,最终确定初始音频的节奏点,使得节奏点的获取更加准确。
音效区域是根据识别出的节奏点获取的待添加音效的区域。音效区域可以与节奏点重合,即将音效正好添加到初始音频的节奏点上;也可以根据实际添加音效的播放效果进行调整,例如,可以设置为从节奏点开始,持续时间为若干秒的一段时间区间等等。服务器获取到初始音频中所有需要添加音效的音效区域后,可以用初始音频播放的时间区间来表示这些音效区域,如将初始音频的第一分钟到1分2秒的区域作为一个音效区域;将初始音频的第一分钟三十秒到一分三十三秒的时间区间作为另一个音效区域。可选地,音效区域的时间长短也可以根据待添加的音效持续的时长或者节奏点的类型来调整的,对于一段枪声的音效持续时长为1S,可以将音效区域设置成包含节奏点、且持续时间为1S的时间区间。
S306,获取音效区域对应的音效音频,将音效音频中的音效添加到初始音频中的音效区域,得到背景音频。
其中,音效音频是包含了在初始音频中添加的音效内容的音频文件,音效可以是一段音乐、或者枪声、鸟鸣声等等,音效音频可以是mp3、WMA、WAV等等常见的音频格式。
具体地,服务器在初始音频中标注好待添加音效的音效区域后,获取在这些音效区域中合成的音效对应的音效音频,将音效音频合成到初始音频中已被标注出的音效区域,得到背景音频。
上述实施例中,初始音频中的音效是添加在初始音频的节奏点对应的音效区域上的;服务器一次性根据节奏识别规则识别出初始音频中的所有需要插入音效的音效区域,直接将音效插入到对应的音效区域中,而非如传统方法中,逐个区域进行音效插入,能够简单、快捷地在节奏点添加音效。
在一个实施例中,上述通过音频触发显示的方法中的背景音频并非为一个合成的音频,而是未合成音效的初始音频以及标记了在初始音频添加音效的音效区域和添加的音效等内容的标记文件。上述的步骤S202获取背景音频,背景音频中携带有音效,可以包括:获取初始音频和初始音频对应的标记文件,标记文件中包含初始音频中添加音效的音效音频和音效区间;则上述步骤S204中的播放背景音频,当播放到音效音频时,在显示页面中生成待触发区域,包括:播放初始音频,并遍历标记文件;当初始音频播放到标记文件中的所述音效区间时,播放音效音频,在显示页面中生成待触发区域。
具体地,服务器将初始音频中所有被识别出来的音效区域,以及播放每个音效区域时需添加的音效对应的音效音频之间的关系,生成一个终端可以识别的标记文件。可选地,标记文件中的音效音频可以用标号来表征,音效音频的标号是一个获取音效音频的链接类符号,可以通过标号从存储音效音频的预设地址中获取对应的音效音频,可以采用单词缩写或者编码等方式表示音效音频的标号。服务器按照音效区间的时间长短、节奏点属性等因素获取这一音效区域对应的音效音频后,用音效音频的标号在标记文件中进行表示;终端获取初始音频和初始音频对应的标记文件后,也可以通过音效音频的标号获取对应的音效音频,在播放初始音频,并根据标记文件中的音效区间来确定播放获取的音效音频的时机。其中,标记文件可以以mid文件或者xml文件的格式存储,上述标记文件的生成步骤即为根据初始音频生成对应的mid文件或xml文件的步骤。
可选地,标记文件还可以包括除音效区间之外的非音效区间,并将非音效区间按照初始音频播放时的时间区间来表示。例如:可以将一个初始音频的标记文件表示为“empty【H】,c1【k1】,empty【HIJK】,c2【k2】,empty【HJK】,c1【k1】……”其中,c1,c2是音效音频的标号,可通过c1,c2从预设地址分别获取c1,c2对应的音效音频;empty代表非音效区间,而empty后面中括号中的内容代表非音效区间的时间区间,c1,c2后面中括号中的内容代表音效区间的时间区间。
当在服务器根据上述实施例中的步骤得到初始音频和初始音频对应的标记文件后,可以将初始音频和标记文件对应发布,终端可以按照需求下载,对初始音频进行播放时,根据标记文件中的音效区域来判定何时播放音效音频,在初始音频播放到音效区域时,同时播放音效音频,实现将音效添加到初始音频中的效果;且终端也可以在播放到标记文件中的音效区域时,并在显示页面中生成待触发区域,即将标记文件中的音效区域作为触发待触发区域生成的依据。
上述实施例中,服务器通过标记文件表示初始音频中插入的音效,终端根据标记文件在初始音频的音效区域播放对应音效,实现音效添加的效果,也可以作为触发待触发区域生成的依据。
在一个实施例中,请参见图4,上述步骤S204中的在显示页面中生成待触发区域之后,还可以包括指令触发步骤,具体可以包括:
S402,在显示页面中的预设位置生成待触发区域,待触发区域生成后按照预设移动路径在显示页面中移动。
其中,预设位置是待触发区域在显示页面中刚生成时的一个设定好的位置,例如,可以是手机屏幕中上方的某一位置等等,可以根据实际需求来设定。
预设移动路径是待触发区域在显示页面中的设置好的移动轨迹;待触发区域在显示页面中的位置并非固定不变的,而是可以按照预设移动路径变化;例如,待触发区域可以是一个在手机屏幕中显示的方块,此方块的预设位置为屏幕上方中间的位置,其预设移动路径可以是沿屏幕上端中央掉落到下端的过程,故此方块在手机屏幕的上方中间的位置生成,生成后的移动路径为沿屏幕上端中央掉落到下端。
则上述步骤S206中的接收输入的触发指令,检测触发指令是否与待触发区域匹配,可以包括:
S404,接收输入的触发指令,根据触发指令在显示页面中触发目标区域。
目标区域是用户在终端上输入触发指令后,在终端的显示页面中触发的区域;例如,当用户通过触摸屏在手机或者平板电脑等终端的屏幕上点击一个区域时,则可将点击的区域作为触发的目标区域,而用户在手机屏幕上的点击操作则作为用户输入触发指令的操作。
S406,当目标区域被触发时,获取待触发区域在显示页面上的当前位置。
当目标区域的按照预设移动路径移动时,目标区域在显示页面中的位置会不断变化;这里将显示页面中的一个目标区域被触发时,目标区域在显示页面中的位置作为当前位置。例如,当目标区域被触发时,若待触发区域的方块移动到手机屏幕的最下端中间的位置时,则将手机屏幕最下端中间的位置作为待触发区域的当前位置。
S408,检测目标区域在显示页面上的位置与当前位置是否一致,若一致,则触发指令与待触发区域匹配。
具体地,终端检测触发指令是否与待触发区域匹配的方式,是通过检测步骤S406中获取的当前位置和目标区域在显示页面上的位置是否一致,即判定触发指令触发的目标位置是否落在待触发区域的当前位置处。
上述实施例中,通过设置待触发区域按照预设移动路径移动,使得待触发区域在终端的显示页面中的位置发生变化,并通过检测触发指令触发的目标位置是否落在待触发区域的当前位置处,来检测触发指令是否与待触发区域匹配,提高显示被触发的复杂度。
在一个实施例中,上述步骤S204中的播放背景音频之后,还可以包括:在显示页面中生成初始区域;则步骤S404中的根据触发指令在显示页面中触发目标区域,可以包括:根据触发指令移动初始区域得到目标区域。
具体地,在步骤S204中,终端开始播放背景音频之后,在终端的显示页面中生成一个初始区域,此初始区域为显示页面中的固定位置、且设置为预设形状的一个区域;例如,可以将初始区域设置为手机屏幕最下方居中的一个正方形区域。用户通过输入的触发指令改变这个初始区域在显示页面中的位置,得到目标区域,使得目标区域在显示页面上的位置与待触发区域在显示页面中移动中的当前位置一致,从而达到预设多媒体信息显示的条件,在显示页面中实现对应的显示效果。
上述实施例中,使得用户通过触发指令操作初始区域,达到预设多媒体信息显示的条件,提高了用户的参与性。
在一个实施例中,上述步骤S204中在显示页面中生成待触发区域之后,还可以包括:当超出预设时长未接收到与待触发区域匹配的触发指令时,获取第二预设效果;根据第二预设效果显示待触发区域。
其中,第二预设效果是对未匹配的待触发区域进行显示的效果,其显示效果与第一预设效果可以相同,例如,都可以设置成将待触发区域对应的方形或者圆形显示为碎裂消失的效果;第二预设效果也可以与第一预设效果不同,例如,将第一预设效果设置为待触发区域对应的方形碎裂消失,而第二预设效果则为待触发区域则为待触发区域对应的方形在显示页面变浅直至消失。
终端若是在设置好的预设时长内未收到用户输入的触发指令,或者用户输入的触发指令与待触发区域不匹配时,则终端可以获取第二预设效果对待触发区域。预设时长的设置可以根据步骤S402中待触发区域的预设移动路径来进行设置,例如,可以将待触发区域的方块从显示页面的顶端移动到底端的时间设置为预设时长,若在方块运动到显示页面底端时,还未接收到与待触发区域匹配的触发指令,则待触发区域将以第二预设效果显示,如从显示页面中消失。
上述实施例中,对于未被触发的待触发区域,终端以第二预设效果进行显示,表示用户错过此次触发。
在一个实施例中,上述步骤S208中根据第一预设效果显示待触发区域之后,还可以包括:对触发指令与待触发区域匹配的次数计数,在退出显示页面时,输出计数结果。
具体地,对于一个背景音频而言,其中包含多次音效区域,即会多次在显示页面上生成待触发区域,每次生成待触发区域后,都需要用户输入触发指令对待触发区域进行触发,为提高用户的参与度,可对用户成功触发的次数进行计数,并在退出此显示页面时,输出计数结果。
上述实施例中,终端可对用户成功触发的次数进行计数,并向用户显示计数结果,能够提高用户的参与度。
在一个实施例中,可以通过上述通过音频触发显示的效果的方法进一步开发,成为一种视听结合、人机高度互动的手机游戏,此游戏的操作步骤可以包括:手机端在安装了此游戏后,可在游戏初始界面提供给用户多种供选择的背景音频,这些背景音频由游戏开发端在初始音乐的节奏点上加入枪声等音效得到、并发布在服务器端的,发布在服务器端的背景音频可供手机端用户通过此游戏初始界面进行下载并解析,并在手机端播放背景音频解析后的背景音频;手机用户选择播放一个背景音频后,进入游戏操作界面;游戏操作界面中包括:一个在屏幕下方中间位置的正方形区域(即可供用户操作的初始区域;)和待触发区域的位置变化区域;当背景音频播放到其中添加的音效部分时,音效触发在屏幕中生成待触发区域,为了区分,可以设置待触发区域的显示效果与初始区域不同,例如,可将初始区域设置为一个透明有边框的正方形,而待触发区域可设置为彩色不透明的正方形等等;待触发区域在生成后,按照预设移动路径在待触发区域的位置变化区域移动,用户可以操作初始区域,使初始区域捕捉到待触发区域,实现一次“击中”,而在实现击中时,也会在屏幕中显示一个击中效果,例如将待触发区域对应的彩色正方形击碎消失等效果;游戏后台会对用户的击中次数进行统计作为用户本次的游戏得分,在背景音频播放结束或者是用户未“击中”的次数太多时,则认为用户未通过本次游戏,终端退出游戏的显示页面,并向用户展示游戏得分。另外,用户在背景音频未播放结束时,也可以操作退出键结束本次游戏。
应该理解的是,虽然图2至4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2至4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种通过音频触发显示的装置,包括音频获取模块100、区域触发模块200、指令匹配模块300和效果显示模块400:
音频获取模块100,用于获取背景音频,背景音频中携带有音效。
区域触发模块200,用于播放背景音频,当播放到音效时,在显示页面中生成待触发区域。
指令匹配模块300,用于接收输入的触发指令,检测触发指令是否与待触发区域匹配。
效果显示模块400,用于当触发指令与待触发区域匹配时,根据第一预设效果显示待触发区域。
在一个实施例中,上述通过音频触发显示的装置还可以包括:
初始音频获取模块,用于获取初始音频。
节奏区域标注模块,用于识别初始音频中的节奏点,根据节奏点在初始音频中标注音效区域。
背景音频生成模块,用于获取音效区域对应的音效音频,将音效音频中的音效添加到初始音频中的音效区域,得到背景音频。
在一个实施例中,上述通过音频触发显示的装置中的音频获取模块100,还可以用于获取初始音频和初始音频对应的标记文件,标记文件中包含初始音频中添加音效的音效音频和音效区间。上述区域触发模块200,可以包括:
播放单元,用于播放初始音频,并遍历标记文件。
触发单元,用于当初始音频播放到标记文件中的音效区间时,播放音效音频,在显示页面中生成待触发区域。
在一个实施例中,上述区域触发模块200还可以用于,在显示页面中的预设位置生成待触发区域,待触发区域生成后按照预设移动路径在显示页面中移动。
上述指令匹配模块300,可以包括:
指令接收单元,用于接收输入的触发指令,根据触发指令在显示页面中触发目标区域。
当前位置获取单元,用于当目标区域被触发时,获取待触发区域在显示页面上的当前位置。
匹配检测单元,用于检测目标区域在显示页面上的位置与当前位置是否一致,若一致,则触发指令与待触发区域匹配。
在一个实施例中,上述通过音频触发显示的装置还可以包括:
初始区域生成模块,用于在显示页面中生成初始区域。
则上述的指令接收单元还可以用于,根据触发指令移动初始区域得到目标区域。
在一个实施例中,上述通过音频触发显示的装置还可以包括:
超时模块,用于当超出预设时长未接收到与待触发区域匹配的触发指令时,获取第二预设效果。
超时触发模块,用于根据第二预设效果显示待触发区域。
在一个实施例中,上述通过音频触发显示的装置还可以包括:
对触发指令与待触发区域匹配的次数计数,在退出显示页面时,输出计数结果。
关于通过音频触发显示的装置的具体限定可以参见上文中对于通过音频触发显示的方法的限定,在此不再赘述。上述通过音频触发显示的装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种通过音频触发显示的方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取背景音频,背景音频中携带有音效;播放背景音频,当播放到音效时,在显示页面中生成待触发区域;接收输入的触发指令,检测触发指令是否与待触发区域匹配;当触发指令与待触发区域匹配时,根据第一预设效果显示待触发区域。
在一个实施例中,处理器执行计算机程序时实现的背景音频中的音效的添加方式,包括:获取初始音频;识别初始音频中的节奏点,根据节奏点在初始音频中标注音效区域;获取音效区域对应的音效音频,将音效音频中的音效添加到初始音频中的音效区域,得到背景音频。
在一个实施例中,背景音频包括初始音频和初始音频对应的标记文件,则处理器执行计算机程序时实现的获取背景音频,背景音频中携带有音效,包括:获取初始音频和初始音频对应的标记文件,标记文件中包含初始音频中添加音效的音效音频和音效区间;处理器执行计算机程序时实现的播放背景音频,当播放到音效音频时,在显示页面中生成待触发区域,包括:播放初始音频,并遍历标记文件;当初始音频播放到标记文件中的音效区间时,播放音效音频,在显示页面中生成待触发区域。
在一个实施例中,处理器执行计算机程序时实现的在显示页面中生成待触发区域,包括:在显示页面中的预设位置生成待触发区域,待触发区域生成后按照预设移动路径在显示页面中移动;处理器执行计算机程序时实现的接收输入的触发指令,检测触发指令是否与待触发区域匹配,包括:接收输入的触发指令,根据触发指令在显示页面中触发目标区域;当目标区域被触发时,获取待触发区域在显示页面上的当前位置;检测目标区域在显示页面上的位置与当前位置是否一致,若一致,则触发指令与待触发区域匹配。
在一个实施例中,处理器执行计算机程序时实现的播放背景音频之后,还包括:在显示页面中生成初始区域;处理器执行计算机程序时实现的根据触发指令在显示页面中触发目标区域,包括:根据触发指令移动初始区域得到目标区域。
在一个实施例中,处理器执行计算机程序时实现的在显示页面中生成待触发区域之后,还包括:当超出预设时长未接收到与待触发区域匹配的触发指令时,获取第二预设效果;根据第二预设效果显示待触发区域。
在一个实施例中,处理器执行计算机程序时实现的根据第一预设效果显示待触发区域之后,还包括:对触发指令与待触发区域匹配的次数计数,在退出显示页面时,输出计数结果。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取背景音频,背景音频中携带有音效;播放背景音频,当播放到音效时,在显示页面中生成待触发区域;接收输入的触发指令,检测触发指令是否与待触发区域匹配;当触发指令与待触发区域匹配时,根据第一预设效果显示待触发区域。
在一个实施例中,计算机程序被处理器执行时实现的背景音频中的音效的添加方式,包括:获取初始音频;识别初始音频中的节奏点,根据节奏点在初始音频中标注音效区域;获取音效区域对应的音效音频,将音效音频中的音效添加到初始音频中的音效区域,得到背景音频。
在一个实施例中,背景音频包括初始音频和初始音频对应的标记文件,则计算机程序被处理器执行时实现的获取背景音频,背景音频中携带有音效,包括:获取初始音频和初始音频对应的标记文件,标记文件中包含初始音频中添加音效的音效音频和音效区间;计算机程序被处理器执行时实现的播放背景音频,当播放到音效音频时,在显示页面中生成待触发区域,包括:播放初始音频,并遍历标记文件;当初始音频播放到标记文件中的音效区间时,播放音效音频,在显示页面中生成待触发区域。
在一个实施例中,计算机程序被处理器执行时实现的在显示页面中生成待触发区域,包括:在显示页面中的预设位置生成待触发区域,待触发区域生成后按照预设移动路径在显示页面中移动;处理器执行计算机程序时实现的接收输入的触发指令,检测触发指令是否与待触发区域匹配,包括:接收输入的触发指令,根据触发指令在显示页面中触发目标区域;当目标区域被触发时,获取待触发区域在显示页面上的当前位置;检测目标区域在显示页面上的位置与当前位置是否一致,若一致,则触发指令与待触发区域匹配。
在一个实施例中,计算机程序被处理器执行时实现的播放背景音频之后,还包括:在显示页面中生成初始区域;计算机程序被处理器执行时实现的根据触发指令在显示页面中触发目标区域,包括:根据触发指令移动初始区域得到目标区域。
在一个实施例中,计算机程序被处理器执行时实现的在显示页面中生成待触发区域之后,还包括:当超出预设时长未接收到与待触发区域匹配的触发指令时,获取第二预设效果;根据第二预设效果显示待触发区域。
在一个实施例中,计算机程序被处理器执行时实现的根据第一预设效果显示待触发区域之后,还包括:对触发指令与待触发区域匹配的次数计数,在退出显示页面时,输出计数结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种通过音频触发显示的方法,其特征在于,所述方法包括:
获取背景音频,所述背景音频中携带有音效,所述背景音频为将所述音效添加到初始音频的设定区域中得到,所述背景音频包括所述初始音频以及与所述初始音频对应的标记文件,所述标记文件包括所述初始音频中添加音效的音效音频和音效区间;
播放所述背景音频,当播放到所述音效区间时,播放所述音效音频,并在显示页面中生成待触发区域;
接收输入的触发指令,检测所述触发指令是否与所述待触发区域匹配;
当所述触发指令与所述待触发区域匹配时,根据第一预设效果显示所述待触发区域。
2.根据所述权利要求1所述的方法,其特征在于,所述背景音频中的音效的添加方式,包括:
获取初始音频;
识别所述初始音频中的节奏点,根据所述节奏点在所述初始音频中标注音效区域;
获取所述音效区域对应的音效音频,将所述音效音频中的音效添加到所述初始音频中的音效区域,得到所述背景音频。
3.根据所述权利要求1所述的方法,其特征在于,所述背景音频包括初始音频和所述初始音频对应的标记文件;所述获取背景音频,所述背景音频中携带有音效,包括:
获取初始音频和所述初始音频对应的标记文件,所述标记文件中包含初始音频中添加音效的音效音频和音效区间;
所述播放所述背景音频,当播放到所述音效音频时,在显示页面中生成待触发区域,包括:
播放所述初始音频,并遍历所述标记文件;
当所述初始音频播放到所述标记文件中的所述音效区间时,播放所述音效音频,在显示页面中生成待触发区域。
4.根据所述权利要求1所述的方法,其特征在于,所述在显示页面中生成待触发区域,包括:
在所述显示页面中的预设位置生成待触发区域,所述待触发区域生成后按照预设移动路径在所述显示页面中移动;
所述接收输入的触发指令,检测所述触发指令是否与所述待触发区域匹配,包括:
接收输入的触发指令,根据所述触发指令在显示页面中触发目标区域;
当所述目标区域被触发时,获取所述待触发区域在所述显示页面上的当前位置;
检测所述目标区域在所述显示页面上的位置与所述当前位置是否一致,若一致,则所述触发指令与所述待触发区域匹配。
5.根据所述权利要求2所述的方法,其特征在于,所述播放所述背景音频之后,还包括:
在显示页面中生成初始区域;
所述根据所述触发指令在显示页面中触发目标区域,包括:
根据所述触发指令移动所述初始区域得到目标区域。
6.根据所述权利要求1所述的方法,其特征在于,所述在显示页面中生成待触发区域之后,还包括:
当超出预设时长未接收到与所述待触发区域匹配的触发指令时,获取第二预设效果;
根据所述第二预设效果显示所述待触发区域。
7.根据所述权利要求1所述的方法,其特征在于,所述根据第一预设效果显示所述待触发区域之后,还包括:
对所述触发指令与所述待触发区域匹配的次数计数,在退出所述显示页面时,输出所述计数结果。
8.一种通过音频触发显示的装置,其特征在于,所述装置包括:
音频获取模块,用于获取背景音频,所述背景音频中包括音效,所述背景音频为将所述音效添加到初始音频的设定区域中得到,所述背景音频包括所述初始音频以及与所述初始音频对应的标记文件,所述标记文件包括所述初始音频中添加音效的音效音频和音效区间;
区域触发模块,用于播放所述背景音频,当播放到所述音效区间时,播放所述音效音频,并在显示页面中生成待触发区域;
指令匹配模块,用于接收输入的触发指令,检测所述触发指令是否与所述待触发区域匹配;
效果显示模块,用于当所述触发指令与所述待触发区域匹配时,根据第一预设效果显示所述待触发区域。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN201910578564.6A 2019-06-28 2019-06-28 通过音频触发显示的方法、装置、计算机设备和存储介质 Active CN110377212B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910578564.6A CN110377212B (zh) 2019-06-28 2019-06-28 通过音频触发显示的方法、装置、计算机设备和存储介质
US16/657,139 US20200410967A1 (en) 2019-06-28 2019-10-18 Method for displaying triggered by audio, computer apparatus and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910578564.6A CN110377212B (zh) 2019-06-28 2019-06-28 通过音频触发显示的方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN110377212A CN110377212A (zh) 2019-10-25
CN110377212B true CN110377212B (zh) 2021-03-16

Family

ID=68251352

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910578564.6A Active CN110377212B (zh) 2019-06-28 2019-06-28 通过音频触发显示的方法、装置、计算机设备和存储介质

Country Status (2)

Country Link
US (1) US20200410967A1 (zh)
CN (1) CN110377212B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112165647B (zh) * 2020-08-26 2022-06-17 北京字节跳动网络技术有限公司 音频数据的处理方法、装置、设备及存储介质
CN112904774B (zh) * 2021-01-20 2023-02-17 北京小米移动软件有限公司 驱动外壳显示状态的电路及方法、电子设备、存储介质
WO2022227037A1 (zh) * 2021-04-30 2022-11-03 深圳市大疆创新科技有限公司 音频处理、视频处理方法、装置、设备及存储介质
CN115277830B (zh) * 2022-06-23 2023-07-11 重庆长安汽车股份有限公司 车载音效产品的运营方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101648074B (zh) * 2008-08-15 2012-06-27 鈊象电子股份有限公司 节奏训练的执行系统及其方法
CN102314917A (zh) * 2010-07-01 2012-01-11 北京中星微电子有限公司 一种影音文件的播放方法及播放装置
JP5450569B2 (ja) * 2011-11-16 2014-03-26 株式会社バンダイナムコゲームス プログラム、電子機器およびコンピュータシステム
JP6103962B2 (ja) * 2013-01-30 2017-03-29 キヤノン株式会社 表示制御装置及びその制御方法
US9342147B2 (en) * 2014-04-10 2016-05-17 Microsoft Technology Licensing, Llc Non-visual feedback of visual change
CN104394331A (zh) * 2014-12-05 2015-03-04 厦门美图之家科技有限公司 一种画面视频中添加匹配音效的视频处理方法
CN104573334B (zh) * 2014-12-24 2017-10-27 珠海金山网络游戏科技有限公司 一种利用标签事件触发特效和音效的播放系统和方法
CN105224230B (zh) * 2015-10-14 2019-02-05 Oppo广东移动通信有限公司 一种播放音频文件的方法及移动终端
CN105430566B (zh) * 2015-11-05 2019-02-12 小米科技有限责任公司 音频数据更新方法及装置
CN107277636B (zh) * 2017-06-15 2020-04-03 广州华多网络科技有限公司 一种直播过程中的互动方法、用户端、主播端及系统
CN108196813B (zh) * 2017-12-27 2021-03-30 广州酷狗计算机科技有限公司 添加音效的方法和装置
CN108281152B (zh) * 2018-01-18 2021-01-12 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及存储介质
CN108355356A (zh) * 2018-03-14 2018-08-03 网易(杭州)网络有限公司 游戏场景中音频播放控制方法和装置
CN108553898A (zh) * 2018-04-18 2018-09-21 网易(杭州)网络有限公司 播放音频的方法及装置、存储介质、电子装置
CN108939535B (zh) * 2018-06-25 2022-02-15 网易(杭州)网络有限公司 虚拟场景的音效控制方法及装置、存储介质、电子设备

Also Published As

Publication number Publication date
CN110377212A (zh) 2019-10-25
US20200410967A1 (en) 2020-12-31

Similar Documents

Publication Publication Date Title
CN110377212B (zh) 通过音频触发显示的方法、装置、计算机设备和存储介质
CN105391764B (zh) 用于监测乐器学习的方法及装置
US11511200B2 (en) Game playing method and system based on a multimedia file
US11514923B2 (en) Method and device for processing music file, terminal and storage medium
US10325513B2 (en) Musical performance assistance apparatus and method
WO2020052665A1 (zh) 一种直播互动方法、装置及存储介质
CN111888765B (zh) 多媒体文件的处理方法、装置、设备及介质
CN108986841B (zh) 音频信息处理方法、装置及存储介质
CN110390943B (zh) 音频合成方法、装置、计算机设备和存储介质
CN108664392B (zh) 一种应用测试方法、装置、终端及存储介质
CN109190879B (zh) 一种训练改编水平评价模型、评价改编水平的方法及装置
CN109410972B (zh) 生成音效参数的方法、装置及存储介质
US11775070B2 (en) Vibration control method and system for computer device
CN109887524A (zh) 一种演唱评分方法、装置、计算机设备及存储介质
CN107786894A (zh) 一种用户反馈数据的识别方法、移动终端和存储介质
CN114630179B (zh) 音频提取方法和电子设备
CN107886941A (zh) 一种音频标注方法及装置
CN111031382A (zh) 媒体文件的播放进度控制方法
CN110392045B (zh) 音频播放方法、装置、计算机设备和存储介质
CN110362263B (zh) 页面切换方法、装置、计算机设备和存储介质
CN114512147A (zh) 一种音频处理方法、装置、电子设备及存储介质
CN116312430B (zh) 电音基调控制方法、装置、计算机设备和存储介质
CN109271126A (zh) 一种数据处理方法及装置
CN116366909B (zh) 虚拟物品处理方法、装置、电子设备及存储介质
CN115220625B (zh) 音频播放方法及装置、电子设备、计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant