CN113709578B - 弹幕展示方法、装置、设备及介质 - Google Patents
弹幕展示方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN113709578B CN113709578B CN202111076374.8A CN202111076374A CN113709578B CN 113709578 B CN113709578 B CN 113709578B CN 202111076374 A CN202111076374 A CN 202111076374A CN 113709578 B CN113709578 B CN 113709578B
- Authority
- CN
- China
- Prior art keywords
- information
- barrage
- target
- audio
- amplitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4318—Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本申请提供弹幕展示方法及装置,其中,所述弹幕展示方法包括:接收目标视频,其中,所述目标视频携带有弹幕信息;解析所述目标视频,提取所述目标视频中的音频信息;根据所述音频信息确定所述弹幕信息的展示方式;根据所述展示方式展示所述弹幕信息。实现通过对音乐视频的音轨分析,将原本单调播放的弹幕可根据目标视频的节奏、音调改变展示方式并播放,提高了用户观看的体验度。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种弹幕展示方法。本申请同时涉及一种弹幕展示装置,一种计算设备,以及一种计算机可读存储介质。
背景技术
随着互联网及多媒体技术的发展,视频已经成为大众生活、娱乐的一种方式。用户在观看视频时候喜欢将自己的观点以弹幕的形式发送,以表达自己的感受。弹幕可以起到炒热氛围、提高人气的作用,同时可以给观众一种实时互动的感受。但是,目前弹幕的表现形式单一,例如,弹幕的速度由弹幕的长度来控制、弹幕的颜色根据观众的选择来确定,这样的弹幕形式对用户来说体验度差且枯燥乏味,因此,如何丰富弹幕的展示形式、提高用户的体验度,是目前亟需解决的问题。
发明内容
有鉴于此,本申请实施例提供了一种弹幕展示方法。本申请同时涉及一种弹幕展示装置,一种计算设备,以及一种计算机可读存储介质,以解决现有技术中存在的弹幕展示形式单一的问题。
根据本申请实施例的第一方面,提供了一种弹幕展示方法,包括:
接收目标视频,其中,所述目标视频携带有弹幕信息;
解析所述目标视频,提取所述目标视频中的音频信息;
根据所述音频信息确定所述弹幕信息的展示方式;
根据所述展示方式展示所述弹幕信息。
根据本申请实施例的第二方面,提供了一种弹幕展示装置,包括:
接收模块,被配置为接收目标视频,其中,所述目标视频携带有弹幕信息;
解析模块,被配置为解析所述目标视频,提取所述目标视频中的音频信息;
确定模块,被配置为根据所述音频信息确定所述弹幕信息的展示方式;
展示模块,被配置为根据所述展示方式展示所述弹幕信息。
根据本申请实施例的第三方面,提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述计算机指令时实现所述弹幕展示方法的步骤。
根据本申请实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机指令,该计算机指令被处理器执行时实现所述弹幕展示方法的步骤。
本申请提供的弹幕展示方法,通过接收目标视频,其中,所述目标视频携带有弹幕信息;解析所述目标视频,提取所述目标视频中的音频信息;根据所述音频信息确定所述弹幕信息的展示方式;根据所述展示方式展示所述弹幕信息。实现通过对音乐视频的音轨分析,将原本单调播放的弹幕可根据人物唱歌的节奏、声调播放,丰富了弹幕的展示形式,提高了用户观看的体验度。
附图说明
图1是本申请一实施例提供的一种弹幕展示方法的流程图;
图2是本申请一实施例提供的一种应用于观看音乐短片的弹幕展示方法的处理流程图;
图3是本申请一实施例提供的一种弹幕展示方法中样本音频流片段的时域图;
图4是本申请一实施例提供的一种弹幕展示方法中样本音频流片段的频域图;
图5是本申请一实施例提供的一种弹幕展示方法中样本音频流片段的提取人声振幅总值的示意图;
图6是本申请一实施例提供的一种弹幕展示方法中的音频时序图;
图7是本申请一实施例提供的一种弹幕展示方法中根据音频时序图绘制的曲线图;
图8是本申请一实施例提供的一种应用于观看音乐短片(不含人声)的弹幕展示方法的处理流程图;
图9是本申请一实施例提供的一种弹幕展示方法中样本音频流片段的提取鼓点振幅总值的示意图;
图10是本申请一实施例提供的一种弹幕展示装置的结构示意图;
图11是本申请一实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本申请一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。在本申请一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本申请一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本申请一个或多个实施例涉及的名词术语进行解释。
弹幕:中文流行词语,指在网络上观看视频时弹出的评论性字幕。
MV:音乐短片(Music Video),指与音乐搭配的短片,现代的音乐短片主要是为了作为宣传音乐唱片而制作出来。
频域:frequency domain,指描述信号在频率方面特性时用到的一种坐标系。在电子学,控制系统工程和统计学中,频域图显示了在一个频率范围内每个给定频带内的信号量。频域表示还可以包括每个正弦曲线的相移的信息,以便能够重新组合频率分量以恢复原始时间信号。
时域:Time domain是描述数学函数或物理信号对时间的关系。例如一个信号的时域波形可以表达信号随着时间的变化。
傅里叶变换:指将满足一定条件的某个函数表示成三角函数(正弦和/或余弦函数)或者它们的积分的线性组合。在不同的研究领域,傅立叶变换具有多种不同的变体形式,如连续傅立叶变换和离散傅立叶变换。最初傅立叶分析是作为热过程的解析分析的工具被提出的。
在本申请中,提供了一种弹幕展示方法,本申请同时涉及一种弹幕展示装置,一种计算设备,以及一种计算机可读存储介质,在下面的实施例中逐一进行详细说明。
图1示出了根据本申请一实施例提供的一种弹幕展示方法的流程图,具体包括以下步骤:
步骤102:接收目标视频,其中,所述目标视频携带有弹幕信息。
其中,目标视频可以理解为用户在线观看的视频或下载至本地的视频,在实际应用中,目标视频可以理解为一段音乐视频;弹幕信息可以理解为用户在观看目标视频时,根据目标视频内容发出的评论性字幕;目标视频携带有弹幕信息可以理解为在目标视频播放时显示用户发送的评论性字幕。
在本申请一具体实施例中,接收到一段携带有弹幕的音乐视频,弹幕可以是与音乐视频内容有关的评论性字幕。
步骤104:解析所述目标视频,提取所述目标视频中的音频信息。
其中,音频信息可以理解为目标视频的音频信号,音频信号的时域信号可以表达音频信号随着时间的变化,一般可以用时域图的形式表示音频信号。
具体的,在接收到一段目标视频后,由于目标视频是由视频信息和音频信息组成,因此对目标视频进行解析处理,提取其中的音频信息,音频信息的时域信号可以体现出目标视频的声音随着目标视频的播放时间而变化。本申请对从视频中提取音频信息的方式不作具体限制,只要能从视频中提取出音频信息即可。
在本申请一具体实施例中,沿用上例,在接收一段携带有弹幕的音乐视频之后,对音乐视频进行图像流、音频流解析分离,将音乐视频中的音频流提取出来,用时域图的形式表示音频流。
步骤106:根据所述音频信息确定所述弹幕信息的展示方式。
其中,展示方式可以理解为弹幕的效果,例如,弹幕的速度变化、弹幕的颜色变化、弹幕的字体、大小变化等。根据音频信息确定弹幕信息的展示方式,可以使弹幕跟随音频信息的变化而发生变化,例如,弹幕伴随歌声的变化而产生颜色变化效果,使弹幕看起来如闪光棒效果;再例如,弹幕随着歌曲的节奏快慢而改变滚动速度。
具体的,通过对目标视频中的音频信息进行分析处理,确定弹幕信息的效果展示方式,使弹幕可以根据音频信息变化展示效果。
在本申请一具体实施例中,沿用上例,从音乐视频中提取出音频流之后,根据音频流控制弹幕的效果变化,使弹幕可以伴随音频流的播放而产生效果变化。
基于此,通过音频信息确定弹幕信息的展示方式,从而控制弹幕信息的效果变化,避免弹幕效果过于单一,丰富了弹幕的展示方式,有效的提高了用户的体验效果。
在实际应用中,根据所述音频信息确定所述弹幕信息的展示方式,包括:
解析所述音频信息,获取所述音频信息中的目标振幅信息;
根据所述目标振幅信息生成音频时序图;
根据所述音频时序图确定所述弹幕信息的展示方式。
其中,目标振幅信息可以理解为音频信息中时间采集段内的目标振幅值及采集时间区间,例如,音频流中演唱者的人声振幅值和其对应的采集时间区间、音乐中乐器的振幅值其对应的采集时间区间。之所以需要获取音频信息中的目标振幅信息,是因为音频流中可能会有一些其他噪音,例如,现场的环境噪声、与想要提取的音频无关的噪声;提取出目标振幅信息便于后续根据目标振幅信息中的目标振幅值和其对应的采集时间区间生成音频时序图,以实现精确的控制弹幕展示方式,从而丰富弹幕的展示方式。
音频时序图可以理解为体现目标振幅值与对应采集时间区间的2D时序图,通过音频时序图可以确定当前播放时间内的目标振幅值,以此确定弹幕信息的展示方式,从而丰富弹幕的展示方式,提高用户的观看体验度。
具体的,对目标视频中提取出的音频视频进行解析处理,获取到音频信息中的目标振幅总值和对应的采集时间区间,将目标振幅总值和对应的采集时间区间使用2D时序图展现出来,生成音频时序图,根据音频时序图内的信息可以确定弹幕信息的展示方式。
在本申请一具体实施例中,沿用上例,对从音乐视频中提取出的音频流进行解析处理,获取音频流中的人声振幅值和对应的采集时间,将人声振幅值和音频流的采集时间使用音频时序图展现出来,通过音频时序图可以更加直观的发现人声在音频流中的振幅变化,以此实现控制弹幕的效果变化。
在实际应用中,解析所述音频信息,获取所述音频信息中的目标振幅信息,包括:
将所述音频信息拆分成至少一个样本音频信息,获取每个样本音频信息中的目标样本振幅信息;
将每个目标样本振幅信息进行组合,生成所述目标振幅信息。
其中,样本音频信息可以理解为从音频信息中截取出的一段样本音频。例如,将影片的音轨拆分成多个样本n毫秒的片段,n是变量,可以是10ms(毫秒)也可以是200ms,数值取的越小对于后续获取目标振幅信息越精确,在实际应用中根据实际需求确定n的取值,本申请对n的取值不做具体限制。
目标样本振幅信息可以理解为在截取出的一段样本音频片段中,获取该样本音频片段的目标振幅值和对应的采集时间区间。例如,从音频信息中截取出一段0-10ms的样本音频信息,获取该样本音频信息的人声振幅值,记录下该人声振幅值及当前采集时间区间为0-10ms。
具体的,将音频信息拆分成多个n毫秒的样本音频信息,分别对每个样本音频信息进行解析,记录下每个样本音频信息对应的目标样本振幅信息,将所有的目标样本振幅信息进行组合生成一段总的目标振幅信息。
在本申请一具体实施例中,沿用上例,将音频流拆分成m个n毫秒的样本片段音频,获取到每个样本片段音频对应的人声振幅值,并将每个人声振幅值和对应的采集时间区间记录下来,并将其进行组合生成一段总的目标振幅信息,该目标振幅信息即为音频流的目标振幅信息。
通过将音频信息拆分成多个样本音频信息,并获取每个样本音频信息中的目标样本振幅信息,可以更加精确的获取到音频信息中的目标振幅信息,提高后续控制弹幕信息的准确度。
在实际应用中,获取每个样本音频信息中的目标样本振幅信息,包括:
在所述每个样本音频信息中确定目标样本音频信息;
将所述目标样本音频信息转换成目标样本音频频域信息;
根据所述目标样本音频频域信息确定所述目标样本音频信息对应的目标样本振幅信息。
其中,目标样本音频频域信息可以理解为体现样本音频信息在频率方面特性的一种坐标系,进一步的,由于样本音频信息是用时域图的形式表示,时域图只能体现出时间与振幅之间的关系,而样本音频频域信息可以用频域图的形式表示,频域图可以体现出振幅与频率之间的关系,方便后续在样本音频信息中提取目标样本振幅信息。
具体的,由于音频信息已经被拆分成多个样本音频信息,因此在获取每个样本音频信息中的样本振幅信息时,需要先确定其中一个样本音频信息,即为目标样本音频信息;在确定好目标样本音频信息之后,将该目标样本音频信息转换成目标样本音频频域信息,通过目标样本音频频域信息可以确定该目标样本音频信息对应的目标样本振幅信息。以此类推,获取每个样本音频信息中的目标样本振幅信息。
在本申请一具体实施例中,沿用上例,将音频流拆分成m个n毫秒的样本片段音频之后,获得m个采集时间区间为n毫秒的样本片段的时域图。首先,在所有样本片段音频中选择样本片段音频A为目标样本音频信息,然后,为了获取目标样本片段音频A的人声振幅值,需要将原本以时域图表示的目标样本片段音频A转换成以频域图表示的目标样本片段音频A,根据目标样本片段音频A的频域图确定目标样本片段A对应的人声振幅值,并记录人声振幅值和当前采集时间区间n。
在实际应用中,将所述目标样本音频信息转换成样本音频频域信息,包括:
采用预设方法将所述目标样本音频信息转换成样本音频频域信息。
具体的,为了获取到目标样本音频信息对应的目标样本振幅信息,需要将目标样本音频信息通过预设方法转换成目标样本音频频域信息。
在本申请一具体实施例中,预设方法可以是快速傅里叶变换、短时傅里叶变换,在此,本申请对将时域转换成频域的方式不作具体限制。本申请采用快速傅里叶转换方法将目标样本音频信息的时域图转换成频域图,可以更加直观的体现出频率与振幅之间的关系,方便后续采集目标频率区间内的振幅总值。
在实际应用中,根据所述目标样本音频频域信息确定所述目标样本音频信息对应的目标样本振幅信息,包括:
提取所述目标样本音频频域信息对应的目标时间区间信息;
确定所述目标样本音频频域信息中的目标频率区间,计算所述目标频率区间内的振幅总值;
根据所述振幅总值与目标时间区间信息生成目标样本振幅信息。
其中,目标时间区间信息可以理解为当前目标样本音频频域信息的采集时间,例如,截取一段时间总长为10s时域图中,在0-5s时间区间有一段振幅为1的信号,则转换成频域图后,当前信号的采集时间为在0-5s这个时间区间。
目标频率区间可以理解为采集当前目标频率区间中的振幅信息。例如,在频域图中,需要200Hz(赫兹)至300Hz之间的振幅值。
具体的,在将目标样本音频信息转换成样本音频频域信息之后,需要先获取到当前样本音频频域信息对应的目标时间区间信息,然后从样本音频频域信息中确定出所需要的目标频率区间,将目标频率区间内的振幅进行相加,获得振幅总值,根据振幅总值与目标时间区间信息即可生成目标样本振幅信息。
在本申请一具体实施例中,沿用上例,将目标样本片段A时域图转换成目标样本片段A频域图之后,因为需要提取人声振幅值,而人的歌声频率一般在180-1.1KHZ之间,因此确定出目标频率区间为180-1.1KHZ之间,将该频率区间内的振幅提取出来并全部相加,计算出180-1.1KHZ之间的振幅总值,并根据样本片段A的采集时间区间为0-5s,生成样本片段A的振幅信息。
通过上述方法,先确定出每个样本音频信息的目标样本振幅信息,再将所有获取到的目标样本振幅信息进行组合之后,生成音频信息的目标振幅信息,为后续生成音频时序图提供了更加准确的数据支持,在音频时序图确定所述弹幕信息的展示方式时,实现了更加精确的控制弹幕信息的展示方式。
进一步的,根据所述音频时序图确定所述弹幕信息的展示方式,包括:
根据所述音频时序图生成弹幕节奏文件,其中,所述弹幕节奏文件包括至少一个时间点和每个时间点对应的弹幕效果值;
根据每个时间点和每个时间点对应的弹幕效果值确定所述弹幕信息的展示方式。
其中,弹幕节奏文件可以理解为根据音频时序图中峰值生成平滑的曲线,获取该曲线上的所有坐标点,将所有坐标点以文件形式保存形成的文件。
弹幕效果值可以理解为在一个时间点时的目标振幅值。
具体的,在生成音频时序图之后,根据音频时序图生成弹幕节奏文件,弹幕节奏文件中包括音频信息的每个播放时间点与其对应的目标振幅值,根据每个播放时间点与其对应的目标振幅值可以确定出弹幕的变化效果。
在本申请一具体实施例中,沿用上例,根据音频流的目标振幅信息生成音频时序图之后,可以根据该时序图中音频流的采集时间与人声振幅峰值的坐标绘制出一条平滑曲线,将该曲线上所有的点以文件形式保存下来,即可以获取到当前播放时间点与弹幕效果的对应关系,以此确定出弹幕的变化效果。
在实际应用中,根据每个时间点和每个时间点对应的弹幕效果值确定所述弹幕信息的展示方式,包括:
通过所述每个时间点对应的弹幕效果值确定所述弹幕信息的速度和/或所述弹幕信息的颜色。
具体的,当根据音频时序图生成弹幕节奏文件之后,可以根据弹幕节奏文件中的时间点与其对应的弹幕效果值确定出弹幕的变化效果。
当变化效果为变化速度时,通过当前时间点对应的弹幕效果值除以弹幕效果值的最大值并乘以弹幕信息的默认移动速度,来确定所述弹幕信息的速度。
在本申请一具体实施例中,以在当前时间点为5s时有一条弹幕X为例,当前时间点5s时的弹幕效果值为10,而在弹幕节奏文件中的最大弹幕效果值为100,当弹幕的默认速度为a时,则弹幕X的速度为(10/100)a。
当变化效果为变化颜色时,可通过所述每个时间点对应的弹幕效果值与上一个时间点的弹幕效果值之间的变化差异,控制所述弹幕信息的RGB变化量,来确定所述弹幕信息的颜色。
其中,弹幕信息的RGB变化量可以理解为通过RGB色彩模式改变弹幕颜色的值,通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加来得到各式各样的颜色的。
具体的,通过当前时间点对应的弹幕效果值除以弹幕效果值的最大值并乘以(弹幕初始RGB值减去弹幕目标RGB值)。
在本申请一具体实施例中,以初始RGB值为0xFFFFFF,目标RGB值为0x000000为例,在当前时间点为5s时有一条弹幕X,当前时间点5s时的弹幕效果值为10,而在弹幕节奏文件中的最大弹幕效果值为100,则计算弹幕X颜色的RGB的公式为(10/100)*(0xFFFFFF-0x000000),得出当前弹幕X的RGB值为0x199999,从而改变弹幕的颜色。
步骤108:根据所述展示方式展示所述弹幕信息。
具体的,通过上述两种方式确定弹幕信息的展示方式之后,根据确定好的展示方式展示所述弹幕信息。
在本申请一具体实施例中,沿用上例,确定弹幕X的速度变化至1/10a后,根据1/10a速度播放该弹幕。确定弹幕X的颜色变化至0x199999后,将RGB红(R)、绿(G)、蓝(B)三个颜色通道分别设置为19、99、99,使弹幕根据当前RGB值的颜色播放。
本申请的弹幕展示方法,接收目标视频,其中,所述目标视频携带有弹幕信息;解析所述目标视频,提取所述目标视频中的音频信息;根据所述音频信息确定所述弹幕信息的展示方式;根据所述展示方式展示所述弹幕信息。实现通过对音乐视频的音频流分析,将音频流中的时域信号使用傅里叶转换成频域信号,通过对频域信号的分析来判断歌声、节奏的变化,将原本播放形式单一的弹幕可根据视频的音乐节奏、音调变化改变展示效果,丰富了弹幕展示效果,提高了用户观看的体验度。
下述结合附图2,以本申请提供的弹幕展示方法在观看音乐短片的应用为例,对所述弹幕展示方法进行进一步说明。其中,图2示出了本申请一实施例提供的一种应用于观看音乐短片的弹幕展示方法的处理流程图,具体包括以下步骤:
步骤202:接收并解析音乐短片,提取音乐短片中的音频流,其中,音乐短片携带有弹幕。
在本申请一具体实施例中,接收并解析携带有弹幕的音乐短片,对音乐短片的视频流与音频流进行分离,提取出其中的音频流,该音频流以时域形式表示。
步骤204:将音频流拆分成多个样本音频流。
在本申请一具体实施例中,为了保证后续获取人声振幅值的精确度,可以将音频流拆分成多个样本音频流:样本音频流A、样本音频流B、样本音频流C...等。如图3所示,图3示出了本申请一实施例提供的一种弹幕展示方法中样本音频流片段的时域图。
步骤206:采用快速傅里叶方法将样本音频流A转换成样本音频流频域信息A1。
在本申请一具体实施例中,沿用上例,确定样本音频流A为待处理的目标样本音频流,采用快速傅里叶转换方法将样本音频流A以频域形式展示,转换成样本音频流频域信息A1,如图4所示,图4示出了本申请一实施例提供的一种弹幕展示方法中样本音频流片段的频域图。
步骤208:提取样本音频流频域信息A1对应的采集时间区间T,确定样本音频流频域信息A1中的人声频率区间P,计算频率区间内P的人声振幅总值ZA。
在本申请一具体实施例中,在获得样本音频流A的频域图之后,需要提取出其中的人的歌声频率的振幅值za。由于人的歌声频率通常在180-1.1KHZ的频率范围之内,所以确定采集频率区间P为180-1.1KHZ,如图5所示,图5是本申请一实施例提供的一种弹幕展示方法中样本音频流片段的提取人声振幅总值的示意图,将该频率区间P内的振幅值za(Y轴)相加,获得当前时间采集段的人声振幅总值ZA。
步骤210:根据人声振幅总值ZA与采集时间区间T生成样本振幅信息w。
在本申请一具体实施例中,根据人声振幅总值ZA及当前采集时间区间T,可以生成与样本音频流A对应的目标样本振幅信息w。
步骤212:将每个目标样本振幅信息进行组合,生成目标振幅信息W,根据目标振幅信息W生成音频时序图。
在本申请一具体实施例中,将每个样本音频流片段获取到的各自的人声振幅值(za、zb、zc..)和对应的采集时间段(Ta、Tb、Tc..)进行组合,生成一段完整的音频流的目标振幅信息W。在获得音频流的目标振幅信息W之后,可以根据该目标振幅信息使用2D时序图展现出来,生成音频时序图。如图6所示,图6是本申请一实施例提供的一种弹幕展示方法中的音频时序图,其中,x轴为采集的单位时间,y轴为该单位时间里的人声振幅相加值。
步骤214:根据音频时序图确定弹幕的展示效果。
具体的,在生成音频时序图之后,可以根据音频时序图生成关于人声振幅值与对应的采集时间段的弹幕节奏文件,弹幕节奏文件中包含采集时间(播放时间)与振幅值(弹幕效果值)的对应关系,则可以确定弹幕的效果变化。
在本申请一具体实施例中,根据音频时序图中每个采集时间段内人声振幅值的峰值生成一条平滑的曲线,如图7所示,图7是本申请一实施例提供的一种弹幕展示方法中根据音频时序图绘制的曲线图,该曲线的x轴表示当前播放时间,y轴表示弹幕效果值,将曲线上的所有点的坐标以文件形式保存下来,生成一个弹幕节奏文件。基于此,可以根据弹幕节奏文件中的采集时间(播放时间)与对应的弹幕效果值来确定弹幕的效果变化。
当根据弹幕节奏文件控制弹幕的移动速度时,则当前播放时间区间的弹幕速度可以根据公式(F/Fm)v来确定,其中F为当前播放时间区间的弹幕效果值,Fm为整段播放时间内的弹幕最大值,v为弹幕的默认移动速度,在当前时间点为5s时有一条弹幕X,当前时间点5s时的弹幕效果值为10,而在弹幕节奏文件中的最大弹幕效果值为100,则当前播放时间区间的弹幕速度为(10/100)v。
当根据弹幕节奏文件控制弹幕的颜色变化时,则当前播放时间区间的弹幕颜色的RGB值可以根据公式(F/Fm)*(Cs-Cm)来确定,其中F为当前播放时间区间的弹幕效果值,Fm为整段播放时间内的弹幕最大值,Cs为弹幕的初始RGB值为0xFAFAFA,Cm为弹幕的目标RGB值为0x123456,在当前时间点为5s时有一条弹幕X,当前时间点5s时的弹幕效果值为10,而在弹幕节奏文件中的最大弹幕效果值为100,则计算弹幕X颜色的RGB的公式为(10/100)*(0xFAFAFA-0x123456),得出当前弹幕X的RGB值为0x174710,从而改变弹幕的颜色。
步骤216:根据弹幕展示效果展示弹幕。
在本申请一实施例中,沿用上例,根据上述确定的移动速度和颜色变化来控制当前播放时间内的所有弹幕,使得弹幕可以跟随歌声的节奏而变化,提高用户的观看体验度。
本申请一实施例应用于观看音乐短片的弹幕展示方法,通过解析音乐短片中的音频流,将音频流的时域信号使用傅里叶转换成频域信号,提取出其中的人的歌声的振幅值,并结合采集时间生成音频时序图,根据音频时序图生成弹幕节奏文件。通过弹幕节奏文件可以判断人的歌声的节奏、音调变化,使弹幕跟随歌声的节奏、音调变化移动速度和/或颜色,增添了弹幕展示趣味,提高了用户的观看体验度。
下述结合附图8,以本申请提供的弹幕展示方法在观看音乐短片(不含人声)的应用为例,对所述弹幕展示方法进行进一步说明。其中,图8示出了本申请一实施例提供的一种应用于观看音乐短片(不含人声)的弹幕展示方法的处理流程图,具体包括以下步骤:
步骤802:接收并解析音乐短片,提取音乐短片中的音频流,其中,音乐短片携带有弹幕。
在本申请一具体实施例中,接收并解析携带有弹幕的音乐短片,对音乐短片的视频流与音频流进行分离,提取出其中的音频流,该音频流以时域形式表示。
步骤804:将音频流拆分成多个样本音频流。
在本申请一具体实施例中,为了保证后续获取乐器振幅值的精确度,可以将音频流拆分成多个样本音频流:样本音频流A、样本音频流B、样本音频流C...等。
步骤806:采用快速傅里叶方法将样本音频流B转换成样本音频流频域信息B1。
在本申请一具体实施例中,沿用上例,确定样本音频流B为待处理的目标样本音频流,采用快速傅里叶转换方法将样本音频流B以频域形式展示,转换成样本音频流频域信息B1。
步骤808:提取样本音频流频域信息B1对应的采集时间区间T,确定样本音频流频域信息B1中的乐器频率区间P,计算频率区间内P的乐器振幅总值ZB。
在本申请一具体实施例中,在获得样本音频流B的频域图之后,需要提取出其中的乐器(鼓点)频率的振幅值zb。由于鼓点频率通常在2-2.5KHZ的频率范围之内,所以确定采集频率区间P为2-2.5KHZ,如图9所示,图9是本申请一实施例提供的一种弹幕展示方法中样本音频流片段的提取鼓点振幅总值的示意图,将该频率区间P内的振幅值zb(Y轴)相加,获得当前时间采集段的鼓点振幅总值ZB。
步骤810:根据鼓点振幅总值ZB与采集时间区间T生成样本振幅信息w。
在本申请一具体实施例中,根据鼓点振幅总值ZB及当前采集时间区间T,可以生成与样本音频流B对应的目标样本振幅信息w。
步骤812:将每个目标样本振幅信息进行组合,生成目标振幅信息W,根据目标振幅信息W生成音频时序图。
在本申请一具体实施例中,将每个样本音频流片段获取到的各自的鼓点振幅值(za、zb、zc..)和对应的采集时间段(Ta、Tb、Tc..)进行组合,生成一段完整的音频流的目标振幅信息W。在获得音频流的目标振幅信息W之后,可以根据该目标振幅信息使用2D时序图展现出来,生成音频时序图,其中,x轴为采集的单位时间,y轴为该单位时间里的鼓点振幅相加值。
步骤814:根据音频时序图确定弹幕的展示效果。
具体的,在生成音频时序图之后,可以根据音频时序图生成关于鼓点振幅值与对应的采集时间段的弹幕节奏文件,弹幕节奏文件中包含采集时间(播放时间)与振幅值(弹幕效果值)的对应关系,则可以确定弹幕的效果变化。
在本申请一具体实施例中,根据音频时序图中每个采集时间段内鼓点振幅值的峰值生成一条平滑的曲线,该曲线的x轴表示当前播放时间,y轴表示弹幕效果值,将曲线上的所有点的坐标以文件形式保存下来,生成一个弹幕节奏文件。基于此,可以根据弹幕节奏文件中的采集时间(播放时间)与对应的弹幕效果值来确定弹幕的效果变化。
当根据弹幕节奏文件控制弹幕的移动速度时,则当前播放时间区间的弹幕速度可以根据公式(F/Fm)v来确定,其中F为当前播放时间区间的弹幕效果值,Fm为整段播放时间内的弹幕最大值,v为弹幕的默认移动速度,在当前时间点为5s时有一条弹幕X,当前时间点5s时的弹幕效果值为20,而在弹幕节奏文件中的最大弹幕效果值为100,则当前播放时间区间的弹幕速度为(20/100)v。
当根据弹幕节奏文件控制弹幕的颜色变化时,则当前播放时间区间的弹幕颜色的RGB值可以根据公式(F/Fm)*(Cs-Cm)来确定,其中F为当前播放时间区间的弹幕效果值,Fm为整段播放时间内的弹幕最大值,Cs为弹幕的初始RGB值为0xF1F2F3,Cm为弹幕的目标RGB值为0xA1A2A3,在当前时间点为5s时有一条弹幕X,当前时间点5s时的弹幕效果值为20,而在弹幕节奏文件中的最大弹幕效果值为100,则计算弹幕X颜色的RGB的公式为(20/100)*(0xF1F2F3-0xA1A2A3),得出当前弹幕X的RGB值为0x101010,从而改变弹幕的颜色。
步骤816:根据弹幕展示效果展示弹幕。
在本申请一实施例中,沿用上例,根据上述确定的移动速度和颜色变化来控制当前播放时间内的所有弹幕,使得弹幕可以跟随歌声的节奏而变化,提高用户的观看体验度。
本申请一实施例应用于观看音乐短片的弹幕展示方法,通过解析音乐短片中的音频流,将音频流的时域信号使用傅里叶转换成频域信号,提取出其中的乐器的振幅值,并结合采集时间生成音频时序图,根据音频时序图生成弹幕节奏文件。通过弹幕节奏文件可以判断乐器的节奏、音调变化,使弹幕跟随音乐节奏、音调变化移动速度和/或颜色,增添了弹幕展示趣味,提高了用户的观看体验度。
与上述方法实施例相对应,本申请还提供了弹幕展示装置实施例,图10是本申请一实施例提供的一种弹幕展示装置的结构示意图。如图10所示,该装置包括:
接收模块1002,被配置为接收目标视频,其中,所述目标视频携带有弹幕信息;
解析模块1004,被配置为解析所述目标视频,提取所述目标视频中的音频信息;
确定模块1006,被配置为根据所述音频信息确定所述弹幕信息的展示方式;
展示模块1008,被配置为根据所述展示方式展示所述弹幕信息。
可选的,所述确定模块1006,进一步被配置为:
解析所述音频信息,获取所述音频信息中的目标振幅信息;
根据所述目标振幅信息生成音频时序图;
根据所述音频时序图确定所述弹幕信息的展示方式。
可选的,所述确定模块1006,进一步被配置为:
将所述音频信息拆分成至少一个样本音频信息,获取每个样本音频信息中的目标样本振幅信息;
将每个目标样本振幅信息进行组合,生成所述目标振幅信息。
可选的,所述确定模块1006,进一步被配置为:
在所述每个样本音频信息中确定目标样本音频信息;
将所述目标样本音频信息转换成目标样本音频频域信息;
根据所述目标样本音频频域信息确定所述目标样本音频信息对应的目标样本振幅信息。
可选的,所述确定模块1006,进一步被配置为:
采用预设方法将所述目标样本音频信息转换成目标样本音频频域信息。
可选的,所述确定模块1006,进一步被配置为:
提取所述目标样本音频频域信息对应的目标时间区间信息;
确定所述目标样本音频频域信息中的目标频率区间,计算所述目标频率区间内的振幅总值;
根据所述振幅总值与目标时间区间信息生成目标样本振幅信息。
可选的,所述确定模块1006,进一步被配置为:
根据所述音频时序图生成弹幕节奏文件,其中,所述弹幕节奏文件包括至少一个时间点和每个时间点对应的弹幕效果值;
根据每个时间点和每个时间点对应的弹幕效果值确定所述弹幕信息的展示方式。
可选的,所述确定模块1006,进一步被配置为:
通过所述每个时间点对应的弹幕效果值确定所述弹幕信息的速度和/或所述弹幕信息的颜色。
本申请提供的一种弹幕展示装置,包括接收模块,被配置为接收目标视频,其中,所述目标视频携带有弹幕信息;解析模块,被配置为解析所述目标视频,提取所述目标视频中的音频信息;确定模块,被配置为根据所述音频信息确定所述弹幕信息的展示方式;展示模块,被配置为根据所述展示方式展示所述弹幕信息。
本申请提供的一种弹幕展示装置实现了通过接收并解析携带有弹幕信息的目标视频获取出音频信息,根据音频信息可以确定弹幕信息的展示方式,并根据确定的展示方式展示弹幕信息,从而实现使弹幕信息跟随音频信息的变化而变化,增添了弹幕展示的趣味,提高了用户的观看体验度。
上述为本实施例的一种弹幕展示装置的示意性方案。需要说明的是,该弹幕展示装置的技术方案与上述的弹幕展示方法的技术方案属于同一构思,弹幕展示装置的技术方案未详细描述的细节内容,均可以参见上述弹幕展示方法的技术方案的描述。
图11示出了根据本申请一实施例提供的一种计算设备1100的结构框图。该计算设备1100的部件包括但不限于存储器1110和处理器1120。处理器1120与存储器1110通过总线1130相连接,数据库1150用于保存数据。
计算设备1100还包括接入设备1140,接入设备1140使得计算设备1100能够经由一个或多个网络1160通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备1140可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本申请的一个实施例中,计算设备1100的上述部件以及图11中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图11所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备1100可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备1100还可以是移动式或静止式的服务器。
其中,处理器1120执行所述计算机指令时实现所述的弹幕展示方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的弹幕展示方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述弹幕展示方法的技术方案的描述。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该计算机指令被处理器执行时实现如前所述弹幕展示方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的弹幕展示方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述弹幕展示方法的技术方案的描述。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本申请的内容,可作很多的修改和变化。本申请选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。
Claims (9)
1.一种弹幕展示方法,其特征在于,包括:
接收目标视频,其中,所述目标视频携带有弹幕信息;
解析所述目标视频,提取所述目标视频中的音频信息;
解析所述音频信息,获取所述音频信息中的目标振幅信息,根据所述目标振幅信息生成音频时序图,根据所述音频时序图确定所述弹幕信息的展示方式,其中,所述音频信息用于控制所述弹幕信息的效果变化,根据所述音频时序图确定所述弹幕信息的展示方式包括根据所述音频时序图生成弹幕节奏文件,所述弹幕节奏文件包括至少一个时间点和每个时间点对应的弹幕效果值,根据每个时间点和每个时间点对应的弹幕效果值确定所述弹幕信息的展示方式;
根据所述展示方式展示所述弹幕信息。
2.如权利要求1所述的弹幕展示方法,其特征在于,解析所述音频信息,获取所述音频信息中的目标振幅信息,包括:
将所述音频信息拆分成至少一个样本音频信息,获取每个样本音频信息中的目标样本振幅信息;
将每个目标样本振幅信息进行组合,生成所述目标振幅信息。
3.如权利要求2所述的弹幕展示方法,其特征在于,获取每个样本音频信息中的目标样本振幅信息,包括:
在所述每个样本音频信息中确定目标样本音频信息;
将所述目标样本音频信息转换成目标样本音频频域信息;
根据所述目标样本音频频域信息确定所述目标样本音频信息对应的目标样本振幅信息。
4.如权利要求3所述的弹幕展示方法,其特征在于,将所述目标样本音频信息转换成目标样本音频频域信息,包括:
采用预设方法将所述目标样本音频信息转换成目标样本音频频域信息。
5.如权利要求3所述的弹幕展示方法,其特征在于,根据所述目标样本音频频域信息确定所述目标样本音频信息对应的目标样本振幅信息,包括:
提取所述目标样本音频频域信息对应的目标时间区间信息;
确定所述目标样本音频频域信息中的目标频率区间,计算所述目标频率区间内的振幅总值;
根据所述振幅总值与目标时间区间信息生成目标样本振幅信息。
6.如权利要求1所述的弹幕展示方法,其特征在于,根据每个时间点和每个时间点对应的弹幕效果值确定所述弹幕信息的展示方式,包括:
通过所述每个时间点对应的弹幕效果值确定所述弹幕信息的速度和/或所述弹幕信息的颜色。
7.一种弹幕展示装置,其特征在于,包括:
接收模块,被配置为接收目标视频,其中,所述目标视频携带有弹幕信息;
解析模块,被配置为解析所述目标视频,提取所述目标视频中的音频信息;
确定模块,被配置为解析所述音频信息,获取所述音频信息中的目标振幅信息,根据所述目标振幅信息生成音频时序图,根据所述音频时序图确定所述弹幕信息的展示方式,其中,所述音频信息用于控制所述弹幕信息的效果变化;
展示模块,被配置为根据所述展示方式展示所述弹幕信息。
8.一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,其特征在于,所述处理器执行所述计算机指令时实现权利要求1-6任意一项所述方法的步骤。
9.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该计算机指令被处理器执行时实现权利要求1-6任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111076374.8A CN113709578B (zh) | 2021-09-14 | 2021-09-14 | 弹幕展示方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111076374.8A CN113709578B (zh) | 2021-09-14 | 2021-09-14 | 弹幕展示方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113709578A CN113709578A (zh) | 2021-11-26 |
CN113709578B true CN113709578B (zh) | 2023-08-11 |
Family
ID=78660444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111076374.8A Active CN113709578B (zh) | 2021-09-14 | 2021-09-14 | 弹幕展示方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113709578B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114630140A (zh) * | 2022-03-17 | 2022-06-14 | 阿里巴巴(中国)有限公司 | 基于音频数据的信息设置方法及装置 |
CN115297355B (zh) * | 2022-08-02 | 2024-01-23 | 北京奇艺世纪科技有限公司 | 弹幕显示方法、生成方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015093668A1 (ko) * | 2013-12-20 | 2015-06-25 | 김태홍 | 오디오 신호 처리 장치 및 방법 |
CN109120983A (zh) * | 2018-09-28 | 2019-01-01 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频处理方法和装置 |
CN110085253A (zh) * | 2019-05-09 | 2019-08-02 | 广州小鹏汽车科技有限公司 | 一种音乐可视化信息的控制方法、装置、车辆及存储介质 |
CN110493612A (zh) * | 2019-08-07 | 2019-11-22 | 咪咕动漫有限公司 | 弹幕信息的处理方法、服务器及计算机可读存储介质 |
CN110958493A (zh) * | 2019-12-17 | 2020-04-03 | 腾讯科技(深圳)有限公司 | 一种弹幕调整方法、装置、电子设备和存储介质 |
CN111726696A (zh) * | 2019-03-21 | 2020-09-29 | 阿里巴巴集团控股有限公司 | 声音弹幕的应用方法、装置、设备及可读存储介质 |
CN112866732A (zh) * | 2020-12-30 | 2021-05-28 | 广州方硅信息技术有限公司 | 音乐广播方法及其装置、设备与介质 |
CN113192152A (zh) * | 2021-05-24 | 2021-07-30 | 腾讯音乐娱乐科技(深圳)有限公司 | 基于音频的图像生成方法、电子设备及存储介质 |
-
2021
- 2021-09-14 CN CN202111076374.8A patent/CN113709578B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015093668A1 (ko) * | 2013-12-20 | 2015-06-25 | 김태홍 | 오디오 신호 처리 장치 및 방법 |
CN109120983A (zh) * | 2018-09-28 | 2019-01-01 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频处理方法和装置 |
CN111726696A (zh) * | 2019-03-21 | 2020-09-29 | 阿里巴巴集团控股有限公司 | 声音弹幕的应用方法、装置、设备及可读存储介质 |
CN110085253A (zh) * | 2019-05-09 | 2019-08-02 | 广州小鹏汽车科技有限公司 | 一种音乐可视化信息的控制方法、装置、车辆及存储介质 |
CN110493612A (zh) * | 2019-08-07 | 2019-11-22 | 咪咕动漫有限公司 | 弹幕信息的处理方法、服务器及计算机可读存储介质 |
CN110958493A (zh) * | 2019-12-17 | 2020-04-03 | 腾讯科技(深圳)有限公司 | 一种弹幕调整方法、装置、电子设备和存储介质 |
CN112866732A (zh) * | 2020-12-30 | 2021-05-28 | 广州方硅信息技术有限公司 | 音乐广播方法及其装置、设备与介质 |
CN113192152A (zh) * | 2021-05-24 | 2021-07-30 | 腾讯音乐娱乐科技(深圳)有限公司 | 基于音频的图像生成方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113709578A (zh) | 2021-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113709578B (zh) | 弹幕展示方法、装置、设备及介质 | |
US9159338B2 (en) | Systems and methods of rendering a textual animation | |
EP3418917B1 (en) | Methods and systems for synchronizing media | |
CN112822563A (zh) | 生成视频的方法、装置、电子设备和计算机可读介质 | |
CN109348274B (zh) | 一种直播互动方法、装置及存储介质 | |
CN109922268B (zh) | 视频的拍摄方法、装置、设备及存储介质 | |
CN109257499A (zh) | 一种歌词的动态展示方法及装置 | |
CN112995736A (zh) | 语音字幕合成方法、装置、计算机设备及存储介质 | |
WO2021057740A1 (zh) | 视频生成方法、装置、电子设备和计算机可读介质 | |
WO2016112841A1 (zh) | 一种信息处理方法及客户端、计算机存储介质 | |
WO2023051246A1 (zh) | 视频录制方法、装置、设备及存储介质 | |
US20240054157A1 (en) | Song recommendation method and apparatus, electronic device, and storage medium | |
CN109327731B (zh) | 一种基于卡拉ok的diy视频实时合成方法及系统 | |
US20070078662A1 (en) | Seamless audio speed change based on time scale modification | |
US11081100B2 (en) | Sound processing device and method | |
CN110097618A (zh) | 一种音乐动画的控制方法、装置、车辆及存储介质 | |
CN114125543B (zh) | 弹幕处理方法、计算设备及弹幕处理系统 | |
CN112420006B (zh) | 运行模拟乐器组件的方法及装置、存储介质、计算机设备 | |
WO2023160713A1 (zh) | 音乐生成方法、装置、设备、存储介质及程序 | |
CN114201136A (zh) | 音频播放方法及装置 | |
CN112954481A (zh) | 特效处理方法和装置 | |
CN115113841A (zh) | 音频播放方法、装置、电子设备和存储介质 | |
CN114390361A (zh) | 音频弹幕处理方法及装置 | |
CN115700870A (zh) | 一种音频数据的处理方法及装置 | |
CN113473177A (zh) | 音乐推荐方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |