CN110460899B - 弹幕内容的展示方法、终端设备及计算机可读存储介质 - Google Patents

弹幕内容的展示方法、终端设备及计算机可读存储介质 Download PDF

Info

Publication number
CN110460899B
CN110460899B CN201910574937.2A CN201910574937A CN110460899B CN 110460899 B CN110460899 B CN 110460899B CN 201910574937 A CN201910574937 A CN 201910574937A CN 110460899 B CN110460899 B CN 110460899B
Authority
CN
China
Prior art keywords
bullet screen
video
sub
content
screen content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910574937.2A
Other languages
English (en)
Other versions
CN110460899A (zh
Inventor
李立锋
叶军
吴嘉旭
颜伟婷
蒋伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MIGU Video Technology Co Ltd
Original Assignee
MIGU Video Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MIGU Video Technology Co Ltd filed Critical MIGU Video Technology Co Ltd
Priority to CN201910574937.2A priority Critical patent/CN110460899B/zh
Publication of CN110460899A publication Critical patent/CN110460899A/zh
Application granted granted Critical
Publication of CN110460899B publication Critical patent/CN110460899B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明实施例涉及通讯技术领域,公开了一种弹幕内容的展示方法、终端设备及计算机可读存储介质。本发明中,一种弹幕内容的展示方法,包括:对目标视频的视频内容进行识别,得到识别结果;获取在播放目标视频的过程中接收到的弹幕内容;将识别结果与弹幕内容进行匹配;按照预设方式展示匹配成功的弹幕内容。本发明实施例还提供了一种终端设备及计算机可读存储介质;可以方便用户直观的得到与视频内容相关联的弹幕内容,提高用户获取弹幕内容中有效弹幕的效率;还可以在一定程度上提高用户围绕视频内容发送弹幕的积极性,有助于营造良好的通过弹幕进行互动的氛围。

Description

弹幕内容的展示方法、终端设备及计算机可读存储介质
技术领域
本发明实施例涉及通讯技术领域,特别涉及一种弹幕内容的展示方法、终端设备及计算机可读存储介质。
背景技术
弹幕,指的是在视频播放的过程中,在屏幕上滚动显示的评论性字幕等内容。弹幕作为一种信息交互的形式,可以满足人们在观看视频时的信息交流需求和自我认同需求,很多用户为了获知其他用户对该视频的观点看法,常常会开启弹幕功能。
然而,发明人发现相关技术中至少存在如下问题:弹幕功能的初衷是为用户提供一个对视频内容进行交流的平台,然而实际上,很多视频中经常会出现广告等与视频内容无关的弹幕内容,用户体验感较差。
发明内容
本发明实施方式的目的在于提供一种弹幕内容的展示方法、终端设备及计算机可读存储介质,可以方便用户直观的得到与视频内容相关联的弹幕内容,提高用户获取弹幕内容中有效弹幕的效率;还可以在一定程度上提高用户围绕视频内容发送弹幕的积极性,有助于营造良好的通过弹幕进行互动的氛围。
为解决上述技术问题,本发明的实施方式提供了一种弹幕内容的展示方法,包括:对目标视频的视频内容进行识别,得到识别结果;获取在播放目标视频的过程中接收到的弹幕内容;将识别结果与弹幕内容进行匹配;按照预设方式展示匹配成功的弹幕内容。
本发明的实施方式还提供了一种终端设备,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如上述的弹幕内容的展示方法。
本发明的实施方式还提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时实现如上述的弹幕内容的展示方法。
本发明实施方式相对于现有技术而言,通过对目标视频的视频内容进行识别,得到识别结果,并获取在播放目标视频的过程中接收到的弹幕内容,然后再将识别结果与弹幕内容进行匹配,按照预设方式展示匹配成功的弹幕内容。由于可以按照预设方式突出展示与视频内容相关的弹幕内容,因此,可以方便用户直观的得到与视频内容相关联的弹幕内容,提高用户获取弹幕内容中有效弹幕的效率;还可以在一定程度上提高用户围绕视频内容发送弹幕的积极性,有助于营造良好的通过弹幕进行互动的氛围。
另外,对目标视频中的视频内容进行识别,得到识别结果,包括:根据视频内容的场景信息,将目标视频划分为多个子视频,得到子视频集合;遍历子视频集合,对遍历到的子视频的视频内容进行识别,得到针对子视频的识别结果;获取在播放目标视频的过程中接收到的弹幕内容,包括:获取在播放子视频的过程中接收到的弹幕内容;将识别结果与弹幕内容进行匹配,包括:将针对子视频的识别结果,与在播放子视频的过程中接收到的弹幕内容进行匹配。通过根据场景信息将目标视频划分为多个子视频,可以提高每个子视频的识别结果,与在播放所述子视频的过程中接收到的弹幕内容进行匹配时的匹配效率,从而进一步提高用户获取弹幕内容中有效弹幕的效率。
另外,在对遍历到的子视频的视频内容进行识别,得到针对子视频的识别结果后,还包括:获取在播放与子视频相邻的上一个子视频的过程中接收到的第一弹幕内容,和/或,获取在播放与子视频相邻的下一个子视频的过程中接收到的第二弹幕内容;将识别结果与弹幕内容进行匹配,还包括:将针对子视频的识别结果与第一弹幕内容和/或第二弹幕内容进行匹配;按照预设方式展示匹配成功的弹幕内容,包括:将第一弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示,和/或,将第二弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示。通过对弹幕内容进行重排序,可以解决:由于存在某些用户根据当前的子视频内容,发送弹幕的时机的较早或较晚的情况,从而可能出现将某些实质与当前的子视频内容匹配的弹幕内容,当作与上一个子视频和/或下一个子视频不匹配的弹幕内容,而不在上一个子视频和/或下一个子视频进行突出显示的技术问题,达到进一步提高用户获取弹幕内容中有效弹幕的效率的目的。
另外,按照预设方式展示匹配成功的弹幕内容,包括:识别匹配成功的弹幕内容中的主语信息和/或宾语信息;获取与主语信息对应的第一图像标识,和/或,与宾语信息对应的第二图像标识;根据第一图像标识和/或第二图像标识,对匹配成功的弹幕内容调整后进行展示。这样做,尤其方便用户获知具体是针对视频中哪一类主体信息或宾语信息发出的弹幕内容,可以进一步提高用户获取弹幕内容中有效弹幕的效率。
另外,按照预设方式展示匹配成功的弹幕内容,包括:对匹配成功的弹幕内容进行语义分析;统计匹配成功的弹幕内容中,语义相同的弹幕内容的数量;根据语义相同的弹幕内容的数量,对匹配成功的弹幕内容调整后进行展示。这样做,尤其方便用户获知其他用户中,针对当前视频内容的弹幕内容中,具备相同的意思表示的数量较多的弹幕内容,可以进一步提高用户获取弹幕内容中有效弹幕的效率。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是根据本发明第一实施方式提供的一种弹幕内容的展示方法的流程图;
图2是根据本发明第二实施方式提供的一种弹幕内容的展示方法的流程图;
图3是根据本发明第二实施方式提供的一种弹幕内容的展示方法中步骤204的子步骤的流程图;
图4是根据本发明第三实施方式提供的一种弹幕内容的展示方法的流程图;
图5是根据本发明第三实施方式提供的一种弹幕内容的展示方法中步骤307的子步骤的流程图;
图6是根据本发明第三实施方式提供的一种弹幕内容的展示方法中,将第一弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示的示意图;
图7是根据本发明第三实施方式提供的一种弹幕内容的展示方法中,将第二弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示的示意图;
图8是根据本发明第四实施方式提供的一种弹幕内容的展示方法的流程图;
图9是根据本发明第四实施方式提供的一种弹幕内容的展示方法中,根据第一图像标识和/或第二图像标识,对匹配成功的弹幕内容调整后进行展示的示意图;
图10是根据本发明第五实施方式提供的一种弹幕内容的展示方法的流程图;
图11是根据本发明第六实施方式提供的一种终端设备的结构连接示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施方式涉及一种弹幕内容的展示方法,具体流程图如图1所示,包括:
步骤101,对目标视频的视频内容进行识别,得到识别结果。
在一个例子中,可以通过卷积神经网络对视频内容中的事件信息进行识别,事件信息包括以下至少之一:人、物、动作、场景、表情。然后再将识别到的事件信息转化为文本信息,得到识别结果。其中,事件信息的基本结构可以为:人+场景+表情+动作+对象(人/物)。即:谁在哪里,使用什么,做了什么事情。假设针对视频内容进行识别后,得到的事件信息为:小红在教室里,很是愤怒的甩了小明一巴掌,那么,可以将识别到的事件信息转化为如下文本信息:小红+教室+愤怒+用手打+小明,该文本信息即可作为本步骤的识别结果。
其中,对“人”进行的识别--可以是针对视频内容中演员的姓名进行识别,如识别结果可以为:汪峰、巩俐等;还可以是针对视频内容中的人物职业进行识别,如识别结果可以为:护士、军人等。对“物”进行的识别--可以是针对视频内容中的物的种类进行识别,如识别结果可以为:书包、电脑等;还可以是针对视频内容中的物的品牌进行识别,如识别结果可以为:华为手机。对“动作”进行的识别--可以是针对视频内容中的人的肢体表达进行识别,如识别结果可以为:跑步、踢球等。对“场景”进行的识别--可以是针对视频内容中的环境进行识别,如识别结果可以为:火灾地点、跑道等。对“表情”进行的识别--可以是针对视频内容中的人的情绪进行识别,如识别结果可以为:哭泣、开心等;还可以是针对视频内容中的人的面部表情变化进行识别,如识别结果可以为:害怕→恐惧。这里所说的人、物、动作、场景、表情,可根据实际业务需求进行定义,此处不作具体限定。
步骤102,获取在播放目标视频的过程中接收到的弹幕内容。
具体的说,可以对通过自然语言处理(NLP,简称“Natural LanguageProcessing”)对弹幕内容进行分析,得到以下至少之一:人、物、动作、场景、表情。还可以将NLP与知识图谱进行结合,对弹幕内容进行分析。比如说,根据NLP得到“打得爽”的弹幕内容后,再根据知识图谱进行推理,得到该动作的执行主体为小红,客体为小明,因此,对弹幕内容的分析结果为:小红打小明,打得爽。可以理解,由于弹幕内容具有简短的特性,通过将NLP与知识图谱进行结合对弹幕内容分析并进行推理,可以提高对弹幕内容的识别的准确性。
步骤103,将识别结果与弹幕内容进行匹配。
具体的说,可以将识别结果与弹幕内容进行关键词匹配,还可以将识别结果与弹幕内容进行语义匹配,从而得到与视频内容匹配成功的弹幕内容。
在一个例子中,还可以根据时间信息,将目标视频划分为多个子视频。比如说,目标视频的时长为30分钟,则可以以每5分钟为单位,将目标视频划分为6个子视频。然后再分别对这6个子视频的视频内容进行识别,得到分别针对这6个子视频的识别结果。然后再获取在播放每个子视频的过程中接收到的弹幕内容,将针对每个子视频的识别结果,与在播放各自对应的子视频的过程中接收到的弹幕内容进行匹配。
步骤104,按照预设方式展示匹配成功的弹幕内容。
其中,可以正常显示匹配失败的弹幕内容,并对匹配成功的弹幕内容进行加粗展示、高亮展示等等;另外,还可以过滤掉匹配失败的弹幕内容,仅显示匹配成功的弹幕内容,从而方便用户直观的得到与视频内容相关联的弹幕内容。
不难发现,本实施方式提供的一种弹幕内容的展示方法,通过对目标视频的视频内容进行识别,得到识别结果,并获取在播放目标视频的过程中接收到的弹幕内容,然后再将识别结果与弹幕内容进行匹配,按照预设方式展示匹配成功的弹幕内容。由于可以按照预设方式突出展示与视频内容相关的弹幕内容,因此,可以方便用户直观的得到与视频内容相关联的弹幕内容,提高用户获取弹幕内容中有效弹幕的效率;还可以在一定程度上提高用户围绕视频内容发送弹幕的积极性,有助于营造良好的通过弹幕进行互动的氛围。
本发明的第二实施方式涉及一种弹幕内容的展示方法。本实施方式是在第一实施方式的基础上进行的改进,具体改进之处在于:在本实施方式中,通过根据视频内容的场景信息,将目标视频划分为多个子视频,得到子视频集合;遍历子视频集合,对遍历到的子视频的视频内容进行识别,得到针对子视频的识别结果;并获取在播放子视频的过程中接收到的弹幕内容;然后将针对子视频的识别结果,与在播放子视频的过程中接收到的弹幕内容进行匹配。通过根据场景信息将目标视频划分为多个子视频,可以提高每个子视频的识别结果,与在播放所述子视频的过程中接收到的弹幕内容进行匹配时的匹配效率,从而进一步提高用户获取弹幕内容中有效弹幕的效率。
本实施方式中的弹幕内容的展示方法的流程图如图2所示,包括:
步骤201,根据视频内容的场景信息,将目标视频划分为多个子视频,得到子视频集合。
这里所说的场景信息,可以包括但不限于:医院、公园、跑道等。
在一个例子中,可以通过如下方式确定不同的场景信息:获取目标视频中各图片帧的参数信息,然后再根据各图片帧的参数信息,检测相邻两帧之间的相似度,根据相邻两帧之间的相似度,判断视频内容的场景信息是否相同。如果相邻两帧之间的相似度大于预设阈值,则说明相邻两帧的相似度较高,可以判定这两帧的场景信息相同;否则,说明相邻两帧的相似度较低,可以判定这两帧的场景信息不同。其中,这里所说的参数信息可以包括但不限于:像素、色值。
比如说,第1帧-50帧中,各相邻两帧的相似度均大于预设阈值;然而,第50帧和第51帧的相似度小于预设阈值,则可以根据第1帧在目标视频中的时间信息和第50帧在目标视频中的时间信息,将第1帧-50帧划分为一个子视频;然后再继续将第51帧和第52帧的相似度进行对比、第52帧和第53帧的相似度进行对比……直到当相邻两帧之间的相似度小于预设阈值时,得到另一个子视频。如此,便可得到子视频集合。
需要说明的是,上述确定不同的场景信息的方法仅为举例说明,在实际应用中不应以此为限,比如还可以对视频内容进行语音识别的方式,对视频内容的场景信息进行判断。即,任何对视频内容的场景信息进行判断的方法均在本实施方式的保护范围之内。
步骤202,遍历子视频集合,对遍历到的子视频的视频内容进行识别,得到针对子视频的识别结果。
步骤203,获取在播放子视频的过程中接收到的弹幕内容。
步骤204,将针对子视频的识别结果,与在播放子视频的过程中接收到的弹幕内容进行匹配。
此处结合一个例子对步骤202至步骤204进行说明:假设子视频集合中包括10个子视频,则对遍历到的子视频的视频内容进行识别,得到针对子视频的识别结果后,再继续进行遍历,直到对子视频集合中的10个子视频遍历完毕。如此,可以得到分别针对10个子视频的10个识别结果。假设这10个子视频分别用子视频1-子视频10表示,10个识别结果分别用识别结果1-识别结果10表示,则获取在播放子视频1的过程中接收到的弹幕内容1、获取在播放子视频2的过程中接收到的弹幕内容2……直到获取在播放子视频10的过程中接收到的弹幕内容10后,将识别结果1与弹幕内容1进行匹配,将识别结果2与弹幕内容2进行匹配……直到识别结果10与弹幕内容10进行匹配。
在另一个例子中,将针对子视频的识别结果,与在播放子视频的过程中接收到的弹幕内容进行匹配,还可以包括如下子步骤,其流程图如图3所示,包括:
子步骤2041,获取在子视频播放完成后的预设时长内接收到的弹幕内容。
具体的说,预设时长可以根据实际需求进行设定,一般来说可以小于或者等于2s。当预设时长为2s时,即,获取在子视频播放完成后的2s内接收到的弹幕内容。
子步骤2042,将识别结果,与在播放子视频的过程中接收到的弹幕内容进行匹配,并且,将识别结果,与在子视频播放完成后的预设时长内接收到的弹幕内容进行匹配。
也就是说,该例子中的弹幕内容为:当前子视频的弹幕内容与在当前子视频播放完成后的预设时长(2s)内接收到的弹幕内容之和。
可以理解,由于存在某些用户根据当前的子视频,发送弹幕的时机较晚的情况,通过还将识别结果,与在当前的子视频播放完成后的预设时长内接收到的弹幕内容进行匹配,可以避免将针对当前的子视频而较晚发送的弹幕内容归入到下一个子视频中,从而可以提高识别结果的准确性,进一步提高用户获取弹幕内容中有效弹幕的效率。
步骤205,按照预设方式展示匹配成功的弹幕内容。
由于本实施方式中的步骤205与第一实施方式中的步骤104大致相同,为避免重复,此处不再赘述。
不难发现,本实施方式提供的一种弹幕内容的展示方法,通过根据场景信息将目标视频划分为多个子视频,可以提高每个子视频的识别结果,与在播放所述子视频的过程中接收到的弹幕内容进行匹配时的匹配效率,从而进一步提高用户获取弹幕内容中有效弹幕的效率。
本发明的第三实施方式涉及一种弹幕内容的展示方法。本实施方式是在第二实施方式的基础上进行的改进,具体改进之处在于:在本实施方式中,通过在对遍历到的子视频的视频内容进行识别,得到针对子视频的识别结果后,进一步获取在播放与子视频相邻的上一个子视频的过程中接收到的第一弹幕内容,和/或,获取在播放与子视频相邻的下一个子视频的过程中接收到的第二弹幕内容;并将针对子视频的识别结果与第一弹幕内容和/或第二弹幕内容进行匹配;将第一弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示,和/或,将第二弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示。通过对弹幕内容进行重排序,可以解决:由于存在某些用户根据当前的子视频内容,发送弹幕的时机的较早或较晚的情况,从而可能出现将某些实质与当前的子视频内容匹配的弹幕内容,当作与上一个子视频和/或下一个子视频不匹配的弹幕内容,而不在上一个子视频和/或下一个子视频进行突出显示的技术问题,达到进一步提高用户获取弹幕内容中有效弹幕的效率的目的。
本实施方式中的弹幕内容的展示方法的流程图如图4所示,包括:
步骤301,根据视频内容的场景信息,将目标视频划分为多个子视频,得到子视频集合。
步骤302,遍历子视频集合,对遍历到的子视频的视频内容进行识别,得到针对子视频的识别结果。
步骤303,获取在播放子视频的过程中接收到的弹幕内容。
由于本实施方式中的步骤301至步骤303与第二实施方式中的步骤201至步骤203大致相同,为避免重复,此处不再赘述。
步骤304,获取在播放与子视频相邻的上一个子视频的过程中接收到的第一弹幕内容,和/或,获取在播放与子视频相邻的下一个子视频的过程中接收到的第二弹幕内容。
也就是说,假设子视频集合中包括的10个子视频依次用子视频1-子视频10表示,当前的子视频为子视频2时,则获取在播放子视频1的过程中接收到的第一弹幕内容,和/或,获取在播放子视频3的过程中接收到的第二弹幕内容。
步骤305,将针对子视频的识别结果,与在播放子视频的过程中接收到的弹幕内容进行匹配。
由于本实施方式中的步骤305与第二实施方式中的步骤204大致相同,为避免重复,此处不再赘述。
步骤306,将针对子视频的识别结果与第一弹幕内容和/或第二弹幕内容进行匹配。
也就是说,在步骤304的例子中,还将针对子视频2的识别结果与第一弹幕内容和/或第二弹幕内容进行匹配。
步骤307,按照预设方式展示匹配成功的弹幕内容。
本实施方式中,在将子视频的识别结果,与在播放子视频的过程中接收到的弹幕内容中后,不仅可以对匹配成功的弹幕内容进行加粗展示、高亮展示等等。由于还将针对子视频的识别结果与第一弹幕内容和/或第二弹幕内容进行匹配,因此,可以将第一弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示,和/或,将第二弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示。
其中,将第一弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示,和/或,将第二弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示,可以包括如下子步骤,其流程图如图5所示,包括:
子步骤3071,获取子视频的时长。
子步骤3072,获取第一弹幕内容中的匹配成功的弹幕内容,在上一个子视频中出现的第一时间信息,和/或,获取第二弹幕内容中的匹配成功的弹幕内容,在下一个子视频中出现的第二时间信息。
子步骤3073,根据子视频的时长和第一时间信息,将第一弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示,和/或,根据子视频的时长和第二时间信息,将第二弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示。
以下结合两个例子对子步骤3071和子步骤3073进行说明:参见图6所示。假设子视频的时长为15分钟,并且,若获取到第一弹幕内容中的匹配成功的弹幕内容11,在上一个子视频中的第3分钟出现,则第一弹幕内容中的匹配成功的弹幕内容11,在上一个子视频中出现的第一时间信息(即3分钟),占子视频的时长(即15分钟)的百分比为:3/15*100%=20%。获取子视频的前半部分(即第0分钟-第7.5分钟),将第一弹幕内容中的匹配成功的弹幕内容11,按照上述百分比,展示在子视频的前半部分。比如说,将第一弹幕内容调整至第0分钟-第7.5分钟的20%进行展示(由于子视频的前半部分的时长为7.5分钟,7.5*20%=1.5,即子视频的第1.5分钟(如图中的11’)进行展示。
参见图7所示。假设子视频的时长为15分钟,并且,若获取到第二弹幕内容中的匹配成功的弹幕内容12,在下一个子视频中的第3分钟出现,则第二弹幕内容中的匹配成功的弹幕内容12,在下一个子视频中出现的第一时间信息(即3分钟),占子视频的时长(即15分钟)的百分比为:3/15*100%=20%。获取子视频的后半部分(即第7.5分钟-第15分钟),将第二弹幕内容中的匹配成功的弹幕内容12,按照上述百分比,展示在子视频的后半部分。比如说,将第二弹幕内容调整至第7.5分钟-第15分钟的20%进行展示(由于子视频的后半部分的时长为7.5分钟,7.5*20%=1.5,即在从第7.5分钟后的1.5分钟进行展示),也就是在子视频的第9分钟(如图中的12’)进行展示。
可以理解,若某用户至少是第二次观看目标视频,则可能会出现这样一种情况:当观看到当前子视频时,通过发送弹幕内容的方式将下一个子视频的视频内容剧透给其他正在观看目标视频的用户。本实施方式中,通过将与子视频相邻的上一个子视频的过程中接收到的第一弹幕内容,与子视频的识别结果进行匹配,当匹配成功时,将第一弹幕内容中的匹配成功的弹幕内容调整至子视频中进行展示,可以避免某些用户对目标视频的视频内容进行剧透,从而可以提升其他用户的观看体验。
在一个例子中,用户还可以根据目标视频的子视频的视频内容对下一个子视频的剧情发展进行预测(比如男女主角最终是否在一起等等),并将预测的内容以弹幕的形式发送出去,如果检测到用户预测失败,在正常显示用户发送的弹幕内容;如果检测到用户预测成功,则将预测成功的弹幕内容,调整至下一个子视频中进行展示。较佳的,还可以对预测成功的弹幕内容进行突出展示,比如在预测成功的弹幕内容之前添加鼓掌手、烟花等标识,用于恭喜该用户预测成功,进一步的,还可以对该用户进行相关的积分奖励。
需要说明的是,本实施方式也可以是在第一实施方式的基础上作出的改进。
不难发现,本实施方式提供的一种弹幕内容的展示方法,通过对弹幕内容进行重排序,可以解决:由于存在某些用户根据当前的子视频内容,发送弹幕的时机的较早或较晚的情况,从而可能出现将某些实质与当前的子视频内容匹配的弹幕内容,当作与上一个子视频和/或下一个子视频不匹配的弹幕内容,而不在上一个子视频和/或下一个子视频进行突出显示的技术问题,达到进一步提高用户获取弹幕内容中有效弹幕的效率的目的。
本发明的第四实施方式涉及一种弹幕内容的展示方法。本实施方式是在第一实施方式的基础上进行的改进,具体改进之处在于:在本实施方式中,按照预设方式展示匹配成功的弹幕内容,包括:识别匹配成功的弹幕内容中的主语信息和/或宾语信息;获取与主语信息对应的第一图像标识,和/或,与宾语信息对应的第二图像标识;根据第一图像标识和/或第二图像标识,对匹配成功的弹幕内容调整后进行展示。这样做,尤其方便用户获知具体是针对视频中哪一类主体信息或宾语信息发出的弹幕内容,可以进一步提高用户获取弹幕内容中有效弹幕的效率。
本实施方式中的弹幕内容的展示方法的流程图如图8所示,包括:
步骤401,对目标视频的视频内容进行识别,得到识别结果。
步骤402,获取在播放目标视频的过程中接收到的弹幕内容。
步骤403,将识别结果与弹幕内容进行匹配。
由于本实施方式中的步骤401至步骤403与第一实施方式中的步骤101至步骤103大致相同,为避免重复,此处不再赘述。
步骤404,识别匹配成功的弹幕内容中的主语信息和/或宾语信息。
比如说,若匹配成功的弹幕内容为:我喜欢你,那么,这里的“我”即为主语信息,“你”即为宾语信息。
步骤405,获取与主语信息对应的第一图像标识,和/或,与宾语信息对应的第二图像标识。
具体的说,可以是每一类主语信息对应有第一图像标识,和/或,每一类宾语信息对应有第二图像标识。比如说,主语信息表征的角色是女性时,不管主语信息表征的是A女主角还是B女配角,对应的均为第一图像标识;还可以是只要是不同的主语信息,和/或,不同的宾语信息,均对应有不同的标识。比如说,主语信息表征的是A女主角时的第一图像标识,和主语信息表征的是B女配角时的第一图像标识不同。
在实际应用中,可以仅为目标视频中的主要人物配置第一图像标识,和/或,第二图像标识,然而在本实施方式中并不作任何限定。
另外,在一个例子中,可以截取视频内容中,与主语信息表征的角色相对应的人脸图像,作为与该主语信息对应的第一图像标识,和/或,截取视频内容中,与宾语信息表征的角色或物体相对应的图像,作为与该宾语信息对应的第二图像标识。
步骤406,根据第一图像标识和/或第二图像标识,对匹配成功的弹幕内容调整后进行展示。
在一个例子中,可以将第一图像标识和/或第二图像标识,添加于匹配成功的弹幕内容之前,再进行展示。如图9所示,若图9所示的视频内容为:女主角踩了男主角一脚。匹配成功的弹幕内容包括:“踩的真爽”和“为什么受伤的总是我”。则可以识别到“踩的真爽”是针对于女主角来说的,“为什么受伤的总是我”是针对于男主角来说的,因此,获取主语信息为女主角时对应的第一图像标识,并获取宾语信息为男主角时对应的第二图像标识,将第一图像标识添加于“踩的真爽”之前,将第二图像标识添加于“为什么受伤的总是我”之前,再进行展示。
需要说明的是,本实施方式也可以是在第二或第三实施方式的基础上作出的改进。
不难发现,本实施方式提供的一种弹幕内容的展示方法,尤其方便用户获知具体是针对视频中哪一类主体信息或宾语信息发出的弹幕内容,可以进一步提高用户获取弹幕内容中有效弹幕的效率。
本发明的第五实施方式涉及一种弹幕内容的展示方法。本实施方式是在第一实施方式的基础上进行的改进,具体改进之处在于:在本实施方式中,按照预设方式展示匹配成功的弹幕内容,包括:对匹配成功的弹幕内容进行语义分析;统计匹配成功的弹幕内容中,语义相同的弹幕内容的数量;根据语义相同的弹幕内容的数量,对匹配成功的弹幕内容调整后进行展示。这样做,尤其方便用户获知其他用户中,针对当前视频内容的弹幕内容中,具备相同的意思表示的数量较多的弹幕内容,可以进一步提高用户获取弹幕内容中有效弹幕的效率。
本实施方式中的弹幕内容的展示方法的流程图如图10所示,包括:
步骤501,对目标视频的视频内容进行识别,得到识别结果。
步骤502,获取在播放目标视频的过程中接收到的弹幕内容。
步骤503,将识别结果与弹幕内容进行匹配。
由于本实施方式中的步骤501至步骤503与第一实施方式中的步骤101至步骤103大致相同,为避免重复,此处不再赘述。
步骤504,对匹配成功的弹幕内容进行语义分析。
由于进行语义分析的方法与现有技术相同,因此,此处不再赘述。
步骤505,统计匹配成功的弹幕内容中,语义相同的弹幕内容的数量。
也就是说,如果到匹配成功的弹幕内容的总数量总为5个,则判断这5个弹幕内容中,是否存在语义相同的弹幕内容,并统计语义相同的弹幕内容的数量。
步骤506,根据语义相同的弹幕内容的数量,对匹配成功的弹幕内容调整后进行展示。
在一个例子中,可以对语义相同的弹幕内容中,数量较少的弹幕内容,进行缩小后再进行展示。比如说,语义均为A的弹幕内容的数量为2个,语义均为B的弹幕内容的数量为5个,则将语义为A的弹幕内容进行缩小后再进行展示。
在另一个例子中,可以判断语义相同的弹幕内容的数量是否大于预设数量;当判定语义相同的弹幕内容的数量大于预设数量时,对语义相同的弹幕内容进行放大展示。比如说,语义均为A的弹幕内容的数量为2个,语义均为B的弹幕内容的数量为5个,若预设数量为3,则将语义为B的弹幕内容进行放大后再进行展示。其中,可以以数量3为基准,对语义相同的弹幕内容进行放大,比如说,若语义相同的弹幕内容的数量不足3个,则不对该语义相同的弹幕内容进行放大;若语义相同的弹幕内容的数量为3个,则分别将这3个语义相同的弹幕内容放大10%;若语义相同的弹幕内容的数量为6个,则分别将这6个语义相同的弹幕内容放大20%……,当将语义相同的弹幕内容放大至100%,则不再继续放大。
另外,在其他例子中,还可以当语义相同的弹幕内容的数量很多(比如10个)时,将这10个语义相同的弹幕内容归类成一种类似收缩列表的表示方式,仅对语义相同的弹幕内容中的其中一个放大后进行展示。比如说,将“打得爽”、“爽”、“打的真爽”、“爽啊”等,最大程度地提取主谓宾,归类成“打得爽”后放大进行展示,至于“爽”、“打的真爽”、“爽啊”等,用户可以点击放大后的“打得爽”的弹幕,控制“打得爽”的弹幕自动出现下拉列表,用户可以据此查看到与之语义相同的其他表述,以及发出其他表述的用户名。这样做,可以避免因分别将语义相同的弹幕内容放大后进行展示时,因占用目标视频的较大面积而影响用户观看体验的技术问题。
需要说明的是,本实施方式也可以是在第二至第四实施方式中的任意一个实施方式的基础上作出的改进。
不难发现,本实施方式提供的一种弹幕内容的展示方法,尤其方便用户获知其他用户中,针对当前视频内容的弹幕内容中,具备相同的意思表示的数量较多的弹幕内容,可以进一步提高用户获取弹幕内容中有效弹幕的效率。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本发明第六实施方式涉及一种终端设备,如图11所示,包括:至少一个处理器601;以及,与所述至少一个处理器601通信连接的存储器602;其中,所述存储器602存储有可被所述至少一个处理器601执行的指令,所述指令被所述至少一个处理器601执行,以使所述至少一个处理器601能够执行如上述的弹幕内容的展示方法。
其中,存储器602和处理器601采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器601和存储器602的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器601处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器601。
处理器601负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器602可以被用于存储处理器601在执行操作时所使用的数据。
本发明第七实施方式涉及一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。

Claims (8)

1.一种弹幕内容的展示方法,其特征在于,包括:
根据目标视频的视频内容的场景信息,将所述目标视频划分为多个子视频,得到子视频集合,遍历所述子视频集合,对遍历到的所述子视频的视频内容进行识别,得到针对所述子视频的识别结果;
获取在播放与所述子视频相邻的上一个子视频的过程中接收到的第一弹幕内容,和/或,获取在播放与所述子视频相邻的下一个子视频的过程中接收到的第二弹幕内容;
获取在播放所述子视频的过程中接收到的弹幕内容;
将针对所述子视频的所述识别结果,与在播放所述子视频的过程中接收到的所述弹幕内容进行匹配,还包括:将针对所述子视频的所述识别结果与所述第一弹幕内容和/或所述第二弹幕内容进行匹配;
按照预设方式展示匹配成功的所述弹幕内容,还包括:将所述第一弹幕内容中的匹配成功的弹幕内容调整至所述子视频中进行展示,和/或,将所述第二弹幕内容中的匹配成功的弹幕内容调整至所述子视频中进行展示。
2.根据权利要求1所述的弹幕内容的展示方法,其特征在于,所述将所述针对所述子视频的识别结果,与所述在播放所述子视频的过程中接收到的弹幕内容进行匹配,包括:
获取在所述子视频播放完成后的预设时长内接收到的弹幕内容;
将所述识别结果,与所述在播放所述子视频的过程中接收到的弹幕内容进行匹配,并且,将所述识别结果,与所述在所述子视频播放完成后的预设时长内接收到的弹幕内容进行匹配。
3.根据权利要求1所述的弹幕内容的展示方法,其特征在于,所述将所述第一弹幕内容中的匹配成功的弹幕内容调整至所述子视频中进行展示,和/或,将所述第二弹幕内容中的匹配成功的弹幕内容调整至所述子视频中进行展示,包括:
获取所述子视频的时长;
获取所述第一弹幕内容中的匹配成功的弹幕内容,在所述上一个子视频中出现的第一时间信息,和/或,获取所述第二弹幕内容中的匹配成功的弹幕内容,在所述下一个子视频中出现的第二时间信息;
根据所述子视频的时长和所述第一时间信息,将所述第一弹幕内容中的匹配成功的弹幕内容调整至所述子视频中进行展示,和/或,根据所述子视频的时长和所述第二时间信息,将所述第二弹幕内容中的匹配成功的弹幕内容调整至所述子视频中进行展示。
4.根据权利要求1所述的弹幕内容的展示方法,其特征在于,所述按照预设方式展示匹配成功的弹幕内容,包括:
识别所述匹配成功的弹幕内容中的主语信息和/或宾语信息;
获取与所述主语信息对应的第一图像标识,和/或,与所述宾语信息对应的第二图像标识;
根据所述第一图像标识和/或所述第二图像标识,对所述匹配成功的弹幕内容调整后进行展示。
5.根据权利要求1所述的弹幕内容的展示方法,其特征在于,所述按照预设方式展示匹配成功的弹幕内容,包括:
对所述匹配成功的弹幕内容进行语义分析;
统计所述匹配成功的弹幕内容中,语义相同的弹幕内容的数量;
根据所述语义相同的弹幕内容的数量,对所述匹配成功的弹幕内容调整后进行展示。
6.根据权利要求5所述的弹幕内容的展示方法,其特征在于,所述根据所述语义相同的弹幕内容的数量,对所述匹配成功的弹幕内容调整后进行展示,包括:
判断所述语义相同的弹幕内容的数量是否大于预设数量;
当判定所述语义相同的弹幕内容的数量大于所述预设数量时,对所述语义相同的弹幕内容进行放大展示。
7.一种终端设备,其特征在于,包括:至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任一所述的弹幕内容的展示方法。
8.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一所述的弹幕内容的展示方法。
CN201910574937.2A 2019-06-28 2019-06-28 弹幕内容的展示方法、终端设备及计算机可读存储介质 Active CN110460899B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910574937.2A CN110460899B (zh) 2019-06-28 2019-06-28 弹幕内容的展示方法、终端设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910574937.2A CN110460899B (zh) 2019-06-28 2019-06-28 弹幕内容的展示方法、终端设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN110460899A CN110460899A (zh) 2019-11-15
CN110460899B true CN110460899B (zh) 2021-12-07

Family

ID=68481774

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910574937.2A Active CN110460899B (zh) 2019-06-28 2019-06-28 弹幕内容的展示方法、终端设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110460899B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111526408A (zh) * 2020-04-09 2020-08-11 北京字节跳动网络技术有限公司 信息内容的生成和展示方法、装置及计算机可读存储介质
CN111586469B (zh) * 2020-05-12 2021-10-26 腾讯科技(深圳)有限公司 弹幕显示方法、装置及电子设备
CN112749347B (zh) * 2020-06-05 2023-12-22 腾讯科技(深圳)有限公司 一种社交内容处理方法、装置、计算设备及存储介质
CN114584824A (zh) * 2020-12-01 2022-06-03 阿里巴巴集团控股有限公司 数据处理方法、系统、电子设备、服务端及客户端设备
CN113342233B (zh) * 2021-06-30 2023-09-19 北京字跳网络技术有限公司 一种交互方法、装置、计算机设备以及存储介质
CN114374882A (zh) * 2021-12-23 2022-04-19 咪咕文化科技有限公司 弹幕信息的处理方法、装置、终端及计算机可读存储介质
CN115103212B (zh) * 2022-06-10 2023-09-05 咪咕文化科技有限公司 弹幕展示方法、弹幕处理方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105245960A (zh) * 2014-07-07 2016-01-13 乐视网信息技术(北京)股份有限公司 视频的弹幕显示方法及装置
CN105898600A (zh) * 2015-12-10 2016-08-24 乐视网信息技术(北京)股份有限公司 弹幕数据的处理方法和终端设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016004859A1 (zh) * 2014-07-07 2016-01-14 乐视网信息技术(北京)股份有限公司 视频的弹幕显示方法及装置
CN106407484B (zh) * 2016-12-09 2023-09-01 上海交通大学 一种基于弹幕语义关联的视频标签提取方法
CN107613392B (zh) * 2017-09-22 2019-09-27 Oppo广东移动通信有限公司 信息处理方法、装置、终端设备及存储介质
CN109819342B (zh) * 2017-11-22 2022-01-11 腾讯科技(深圳)有限公司 弹幕内容控制方法、装置、计算机设备和存储介质
CN108495168B (zh) * 2018-03-06 2021-12-03 阿里巴巴(中国)有限公司 弹幕信息的显示方法及装置
CN109361962B (zh) * 2018-11-26 2019-08-16 上海竑讯信息科技有限公司 互联网流媒体大数据弹幕信息处理系统及处理方法
CN109660871B (zh) * 2018-12-17 2021-06-25 北京爱奇艺科技有限公司 一种弹幕角色信息确定方法、装置及设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105245960A (zh) * 2014-07-07 2016-01-13 乐视网信息技术(北京)股份有限公司 视频的弹幕显示方法及装置
CN105898600A (zh) * 2015-12-10 2016-08-24 乐视网信息技术(北京)股份有限公司 弹幕数据的处理方法和终端设备

Also Published As

Publication number Publication date
CN110460899A (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
CN110460899B (zh) 弹幕内容的展示方法、终端设备及计算机可读存储介质
CN110364146B (zh) 语音识别方法、装置、语音识别设备及存储介质
CN106454481B (zh) 一种移动终端直播互动的方法及装置
JP6023685B2 (ja) 感情情報表示制御装置、その方法及びプログラム
US20190278453A1 (en) Screen capturing method and system for electronic device, and electronic device
US10929600B2 (en) Method and apparatus for identifying type of text information, storage medium, and electronic apparatus
CN111611436A (zh) 一种标签数据处理方法、装置以及计算机可读存储介质
CN111711869B (zh) 一种标签数据处理方法、装置以及计算机可读存储介质
CN111757175A (zh) 视频处理方法及装置
CN110580516B (zh) 一种基于智能机器人的交互方法及装置
CN108521589A (zh) 视频处理方法和装置
CN108537026A (zh) 应用程序控制方法、装置和服务器
CN111182359A (zh) 视频预览方法、视频抽帧方法、视频处理装置及存储介质
CN107547922B (zh) 信息处理方法、装置、系统及计算机可读存储介质
CN111432206A (zh) 基于人工智能的视频清晰度处理方法、装置及电子设备
CN112822539B (zh) 信息显示方法、装置、服务器及存储介质
CN114283349A (zh) 一种数据处理方法、装置、计算机设备及存储介质
WO2016206035A1 (zh) 一种信息推荐方法及用户终端
CN111182295B (zh) 一种视频数据处理方法、装置、设备以及可读存储介质
US20190008466A1 (en) Life log utilization system, life log utilization method, and recording medium
CN113542845B (zh) 一种信息展示方法、装置、设备及存储介质
CN113573009A (zh) 视频处理方法、装置、计算机设备以及存储介质
CN112188116A (zh) 基于对象的视频合成方法、客户端及系统
US11710420B1 (en) Derivative content creation using neural networks for therapeutic use
US20240119756A1 (en) Image acquisition apparatus, image acquisition method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant