CN114911396A - 用于智能眼镜的信息处理方法和系统 - Google Patents

用于智能眼镜的信息处理方法和系统 Download PDF

Info

Publication number
CN114911396A
CN114911396A CN202210633289.5A CN202210633289A CN114911396A CN 114911396 A CN114911396 A CN 114911396A CN 202210633289 A CN202210633289 A CN 202210633289A CN 114911396 A CN114911396 A CN 114911396A
Authority
CN
China
Prior art keywords
information
bullet screen
bullet
display
coverage areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210633289.5A
Other languages
English (en)
Other versions
CN114911396B (zh
Inventor
王洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Tianqu Xingkong Technology Co ltd
Original Assignee
Shenzhen Tianqu Xingkong Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Tianqu Xingkong Technology Co ltd filed Critical Shenzhen Tianqu Xingkong Technology Co ltd
Priority to CN202210633289.5A priority Critical patent/CN114911396B/zh
Publication of CN114911396A publication Critical patent/CN114911396A/zh
Application granted granted Critical
Publication of CN114911396B publication Critical patent/CN114911396B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种用于智能眼镜的信息处理方法和系统,涉及信息处理领域。本发明在最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;再基于弹幕运动信息确定弹幕显示区域;随后在收到通知信息后,生成信息简讯;并基于弹幕文本信息在弹幕显示区域中显示信息简讯。能够在不遮挡重要内容的前提下,对通知信息进行提醒,解决了现有的弹窗策略会对画面中的重要内容造成遮挡的问题。

Description

用于智能眼镜的信息处理方法和系统
技术领域
本发明涉及信息处理技术领域,具体涉及一种用于智能眼镜的信息处理方法和系统。
背景技术
随着移动互联网的发展,智能通信设备逐渐成为人们生活的重要组成部分,例如智能手机、智能眼镜等智能通信设备参与了用户的娱乐和工作的绝大多数场景。
在娱乐和工作的场景中,观看在线视频和接收通知信息占有很大比重,目前多数智能通信设备在观看在线视频过程中收到通知信息时,为了让用户及时了解信息,采取的方法是直接进行信息弹窗,且弹窗的位置相对孤独,基本都是在显示画面的顶端中部区域。
显然,上述方法中弹窗位置可能会对视频内容进行遮挡,降低了用户体验。此外,现有方法多是针对智能手机的触屏进行优化,例如通过滑动或点击操作,无法适配智能眼镜的操作方式。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种用于智能眼镜的信息处理方法和系统,解决了现有的弹窗策略会对画面中的重要内容造成遮挡的问题。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:
第一方面,提供了一种用于智能眼镜的信息处理方法,该方法包括:
最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;所述弹幕文本信息包括:每个弹幕的字符、字体以及色彩信息;所述弹幕运动信息包括:每个弹幕在显示画面中的位置、运动方向和速度信息;
基于弹幕运动信息确定弹幕显示区域;
在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
基于弹幕文本信息在弹幕显示区域中显示信息简讯。
进一步的,所述实时获取显示画面中的弹幕文本信息和弹幕运动信息,包括:
获取连续N帧显示画面,并从中选出M帧作为样本图像;
基于文字识别算法获取每个样本图像中的弹幕文本信息和弹幕的识别框,并将弹幕的识别框作为弹幕在显示画面中的位置;
剔除每帧样本图像中具有相同字符的弹幕,得到该样本图像的单帧弹幕库;
从多个样本图像的单帧弹幕库中筛选出重复出现的弹幕,再基于弹幕在显示画面中的位置获取弹幕在显示画面中的运动方向和速度。
进一步的,所述基于弹幕运动信息确定弹幕显示区域,包括:
基于样本图像构建相同的平面坐标系,将各个样本图像中的弹幕在显示画面中的位置转化为坐标信息;
基于所有弹幕的坐标信息,得到弹幕显示区域。
进一步的,所述基于弹幕文本信息在弹幕显示区域中显示信息简讯,包括:
获取最近一帧显示画面中的所有弹幕的识别框,并剔除与显示画面的边界距离小于阈值的弹幕的识别框,得到若干个备选覆盖区域;
筛选出备选覆盖区域对应的弹幕字符数量不小于信息简讯的备选覆盖区域;
若筛选出的备选覆盖区域数量为0,则将弹幕显示区域中作为目标覆盖区域;
若筛选出的备选覆盖区域数量为1,则将该备选覆盖区域作为目标覆盖区域;
若筛选出的备选覆盖区域数量大于1,则选择最接近弹幕运动方向起点的备选覆盖区域,作为目标覆盖区域;
在目标覆盖区域的图层上方显示信息简讯;所述信息简讯与弹幕的字体、运动方向、速度均相同,且所述信息简讯与弹幕的色彩不同。
进一步的,所述方法还包括:
当播放在线视频的终端为智能眼镜时,检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。
第二方面,提供了一种用于智能眼镜的信息处理系统,该系统包括:
弹幕数据获取模块,用于最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;
弹幕显示区域确定模块,用于基于弹幕运动信息确定弹幕显示区域;
信息简讯生成模块,用于在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
信息简讯显示模块,用于基于弹幕文本信息在弹幕显示区域中显示信息简讯。
进一步的,所述实时获取显示画面中的弹幕文本信息和弹幕运动信息,包括:
获取连续N帧显示画面,并从中选出M帧作为样本图像;
基于文字识别算法获取每个样本图像中的弹幕文本信息和弹幕的识别框,并将弹幕的识别框作为弹幕在显示画面中的位置;
剔除每帧样本图像中具有相同字符的弹幕,得到该样本图像的单帧弹幕库;
从多个样本图像的单帧弹幕库中筛选出重复出现的弹幕,再基于弹幕在显示画面中的位置获取弹幕在显示画面中的运动方向和速度。
进一步的,所述基于弹幕运动信息确定弹幕显示区域,包括:
基于样本图像构建相同的平面坐标系,将各个样本图像中的弹幕在显示画面中的位置转化为坐标信息;
基于所有弹幕的坐标信息,得到弹幕显示区域。
进一步的,所述基于弹幕文本信息在弹幕显示区域中显示信息简讯,包括:
获取最近一帧显示画面中的所有弹幕的识别框,并剔除与显示画面的边界距离小于阈值的弹幕的识别框,得到若干个备选覆盖区域;
筛选出备选覆盖区域对应的弹幕字符数量不小于信息简讯的备选覆盖区域;
若筛选出的备选覆盖区域数量为0,则将弹幕显示区域中作为目标覆盖区域;
若筛选出的备选覆盖区域数量为1,则将该备选覆盖区域作为目标覆盖区域;
若筛选出的备选覆盖区域数量大于1,则选择最接近弹幕运动方向起点的备选覆盖区域,作为目标覆盖区域;
在目标覆盖区域的图层上方显示信息简讯;所述信息简讯与弹幕的字体、运动方向、速度均相同,且所述信息简讯与弹幕的色彩不同。
进一步的,所述系统还包括:
响应模块,用于当播放在线视频的终端为智能眼镜时,检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。
第三方面,本发明还提供了一种计算机可读存储介质,其存储用于信息处理的计算机程序,其中,所述计算机程序使得计算机执行如下步骤:
最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;所述弹幕文本信息包括:每个弹幕的字符、字体以及色彩信息;所述弹幕运动信息包括:每个弹幕在显示画面中的位置、运动方向和速度信息;
基于弹幕运动信息确定弹幕显示区域;
在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
基于弹幕文本信息在弹幕显示区域中显示信息简讯。
进一步的,所述实时获取显示画面中的弹幕文本信息和弹幕运动信息,包括:
获取连续N帧显示画面,并从中选出M帧作为样本图像;
基于文字识别算法获取每个样本图像中的弹幕文本信息和弹幕的识别框,并将弹幕的识别框作为弹幕在显示画面中的位置;
剔除每帧样本图像中具有相同字符的弹幕,得到该样本图像的单帧弹幕库;
从多个样本图像的单帧弹幕库中筛选出重复出现的弹幕,再基于弹幕在显示画面中的位置获取弹幕在显示画面中的运动方向和速度。
进一步的,所述基于弹幕运动信息确定弹幕显示区域,包括:
基于样本图像构建相同的平面坐标系,将各个样本图像中的弹幕在显示画面中的位置转化为坐标信息;
基于所有弹幕的坐标信息,得到弹幕显示区域。
进一步的,所述基于弹幕文本信息在弹幕显示区域中显示信息简讯,包括:
获取最近一帧显示画面中的所有弹幕的识别框,并剔除与显示画面的边界距离小于阈值的弹幕的识别框,得到若干个备选覆盖区域;
筛选出备选覆盖区域对应的弹幕字符数量不小于信息简讯的备选覆盖区域;
若筛选出的备选覆盖区域数量为0,则将弹幕显示区域中作为目标覆盖区域;
若筛选出的备选覆盖区域数量为1,则将该备选覆盖区域作为目标覆盖区域;
若筛选出的备选覆盖区域数量大于1,则选择最接近弹幕运动方向起点的备选覆盖区域,作为目标覆盖区域;
在目标覆盖区域的图层上方显示信息简讯;所述信息简讯与弹幕的字体、运动方向、速度均相同,且所述信息简讯与弹幕的色彩不同。
进一步的,所述方法还包括:
当播放在线视频的终端为智能眼镜时,检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。
第四方面,本发明还提供了一种电子设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如下步骤:
最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;所述弹幕文本信息包括:每个弹幕的字符、字体以及色彩信息;所述弹幕运动信息包括:每个弹幕在显示画面中的位置、运动方向和速度信息;
基于弹幕运动信息确定弹幕显示区域;
在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
基于弹幕文本信息在弹幕显示区域中显示信息简讯。
进一步的,所述实时获取显示画面中的弹幕文本信息和弹幕运动信息,包括:
获取连续N帧显示画面,并从中选出M帧作为样本图像;
基于文字识别算法获取每个样本图像中的弹幕文本信息和弹幕的识别框,并将弹幕的识别框作为弹幕在显示画面中的位置;
剔除每帧样本图像中具有相同字符的弹幕,得到该样本图像的单帧弹幕库;
从多个样本图像的单帧弹幕库中筛选出重复出现的弹幕,再基于弹幕在显示画面中的位置获取弹幕在显示画面中的运动方向和速度。
进一步的,所述基于弹幕运动信息确定弹幕显示区域,包括:
基于样本图像构建相同的平面坐标系,将各个样本图像中的弹幕在显示画面中的位置转化为坐标信息;
基于所有弹幕的坐标信息,得到弹幕显示区域。
进一步的,所述基于弹幕文本信息在弹幕显示区域中显示信息简讯,包括:
获取最近一帧显示画面中的所有弹幕的识别框,并剔除与显示画面的边界距离小于阈值的弹幕的识别框,得到若干个备选覆盖区域;
筛选出备选覆盖区域对应的弹幕字符数量不小于信息简讯的备选覆盖区域;
若筛选出的备选覆盖区域数量为0,则将弹幕显示区域中作为目标覆盖区域;
若筛选出的备选覆盖区域数量为1,则将该备选覆盖区域作为目标覆盖区域;
若筛选出的备选覆盖区域数量大于1,则选择最接近弹幕运动方向起点的备选覆盖区域,作为目标覆盖区域;
在目标覆盖区域的图层上方显示信息简讯;所述信息简讯与弹幕的字体、运动方向、速度均相同,且所述信息简讯与弹幕的色彩不同。
进一步的,所述方法还包括:
当播放在线视频的终端为智能眼镜时,检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。
(三)有益效果
本发明在最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;再基于弹幕运动信息确定弹幕显示区域;随后在收到通知信息后,生成信息简讯;并基于弹幕文本信息在弹幕显示区域中显示信息简讯。能够在不遮挡重要内容的前提下,对通知信息进行提醒,解决了现有的弹窗策略会对画面中的重要内容造成遮挡的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的流程图;
图2为本发明实施例提供的获取显示画面中的弹幕文本信息和弹幕运动信息的流程图;
图3为本发明实施例的显示画面、识别框以及平面坐标系的示意图;
图4为本发明实施例提供的基于弹幕文本信息在弹幕显示区域中显示信息简讯的流程图;
图5为本发明实施例的系统框图;
图6为现有的智能眼镜对信息简讯的显示效果示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例通过提供一种用于智能眼镜的信息处理方法,解决了现有的弹窗策略会对画面中的重要内容造成遮挡的问题。
本申请实施例中的技术方案为解决上述技术问题,总体思路如下:
目前现有的在线视频网站都已支持弹幕功能,用户在观看视频是,会先对弹幕进行设置,以避免弹幕对画面的重要内容产生遮挡,例如字幕通常在视频的下方中央区域,如果用户认为这部分是重要区域,则会在设置弹幕时避开此区域。因此,可以认为弹幕区域是用户认可的非重要内容区域,在此区域中显示通知消息不会对重要内容造成遮挡。重要内容可以包括播放视频中的人物和关键物品、文字说明等。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
实施例1:
第一方面,提供了一种用于智能眼镜的信息处理方法,如图1所示,该方法包括:
最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;所述弹幕文本信息包括:每个弹幕的字符、字体以及色彩信息;所述弹幕运动信息包括:每个弹幕在显示画面中的位置、运动方向和速度信息;
基于弹幕运动信息确定弹幕显示区域;
在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
基于弹幕文本信息在弹幕显示区域中显示信息简讯。
本实施例的有益效果为:
本发明实施例在最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;再基于弹幕运动信息确定弹幕显示区域;随后在收到通知信息后,生成信息简讯;并基于弹幕文本信息在弹幕显示区域中显示信息简讯。能够在不遮挡重要内容的前提下,对通知信息进行提醒,解决了现有的弹窗策略会对画面中的重要内容造成遮挡的问题。重要内容可以包括正在观看的电影画面中的重要内容,例如人物画面等;还可以包括不重复的弹幕等。
下面以智能眼镜作为终端为例,对本发明实施例的实现过程进行详细说明:
智能眼镜可以运行操作系统,通常包括显示模组、数据处理模组、通信模组、交互模组等。操作系统可以是安卓系统或者其他操作系统。交互模组可采用视线追踪单元来实现对用户视线焦点的检测。此外用户可以利用现有的在线视频软件观看视频,而目前主流的在线视频软件均具有弹幕功能,用户可以根据需要对弹幕进行例如显示位置、字体、大小、颜色等参数的设置,以保证在不遮挡画面主要内容的前提下,可以与其他观众进行互动,弹幕如果影响遮挡了重要内容,用户自然也会通过手动调节参数来自行改变弹幕显示区域。同时用户也可以根据需要选择窗口化或最大化显示视频画面,当采用最大化显示视频画面后,例如全屏效果,此时视频画面可以覆盖整个显示区域。
S1、最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息。
弹幕文本信息可以包括:每个弹幕的字符、字体以及色彩信息等。例如弹幕为“这个视频真好”,对应的字符即为“这个视频真好”这6个字,根据用户设置,字体可以为微软雅黑四号,色彩为白色。除此之外,弹幕的运动信息还可以包括弹幕的滚动方向,滚动速度等,且并不以此为限,在实际操作时,可以根据实际情况进行选择。
所述弹幕运动信息包括:每个弹幕在显示画面中的位置、运动方向和速度信息。例如运动方向为从右至左,运动速度的单位为像素/秒。
具体实施时,可以直接选择接入在线视频服务商的后台数据获取对应用户设置信息以及弹幕数据,进而得到弹幕文本信息和弹幕运动信息,当然也可采用如图2所示的步骤获取到显示画面中的弹幕文本信息和弹幕运动信息:
S101、获取连续N帧显示画面,并从中选出M帧作为样本图像。
其中,针对N和M的具体选择可以不做限定。例如,可以选择连续提取20帧画面,分别将第5帧、第10帧、第15帧以及第20帧的画面作为样本图像。
S102、基于文字识别算法获取每个样本图像中的弹幕文本信息和弹幕的识别框,并将弹幕的识别框作为弹幕在显示画面中的位置。
具体地,一种可行方式是利用OCR(光学字符识别)技术或图像字符识别技术提取图片中的文字信息。
如图3所示,在识别后,可以得到画面中每个弹幕的识别框。如此即可得到每个样本图像中的弹幕的字符和位置等信息。
但同一帧画面中,可能会存在多个字符信息相同的弹幕,会影响后续弹幕相关信息的准确性。
为了提高获取的弹幕相关信息的准确性,执行S103。
S103、剔除每帧样本图像中具有相同字符的弹幕,得到该样本图像的单帧弹幕库。
S104、从多个样本图像的单帧弹幕库中筛选出重复出现的弹幕,再基于弹幕在显示画面中的位置获取弹幕在显示画面中的运动方向和速度。
例如,经过去重后,第5帧和第15帧中均有个“这个视频真好”的弹幕,则可根据这个弹幕的位置变化情况和两个帧画面的时间差来计算出这个弹幕的运动方向和速度。通过获取多个这样的弹幕即可较为准确的知道弹幕运动方向和速度。
S2、基于弹幕运动信息确定弹幕显示区域。
弹幕显示区域通常可以设置画面上方、画面下方或是全屏,可以直接从在线视频服务商的数据库中确定弹幕显示区域。但也可采用如下步骤来确定弹幕显示区域:
S201、基于样本图像构建相同的平面坐标系,将各个样本图像中的弹幕在显示画面中的位置转化为坐标信息。
具体实施时,每个样本图片均可如图2所示建立坐标系xoy,显然可以得到每个识别框的角点坐标和显示画面边界的坐标。
S202、基于所有弹幕的坐标信息,得到弹幕显示区域。
具体实施时,可以获取所有弹幕的x和y的极值,进而得到一个由该极值范围内的区域,即(xmin,ymin)、(xmax,ymin)、(xmin,ymax)、(xmax,ymax)这四个点构成的矩形区域作为弹幕显示区域。其中,如果是智能眼镜,则智能眼镜的视野范围大于弹幕显示区域,且弹幕显示区域位于智能眼镜的视野范围内。但是弹幕显示区域可以全部或者部分位于画面的显示区域外。
S3、在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型。
具体实施时,通知信息可以为短信、在线聊天软件信息、电话等,生成的信息简讯包括发信人名称和对应的类型,例如“张三,短信”或“王五,电话”。
S4、基于弹幕文本信息在弹幕显示区域中显示信息简讯。
由于弹幕显示区域并不会遮挡到视频的重要内容,因此可以选择在该区域中直接弹窗显示。但为了增加界面的美观程度,也可采用如图4所示的步骤对信息简讯进行显示:
S401、获取最近一帧显示画面中的所有弹幕的识别框,并剔除与显示画面的边界距离小于阈值的弹幕的识别框,以避免弹幕未完全显示而影响后面选取目标覆盖区域,得到若干个备选覆盖区域;该阈值为应大于字符间的间距。
S402、筛选出备选覆盖区域对应的弹幕字符数量不小于信息简讯的备选覆盖区域;备选覆盖区域的长度能够完全容纳信息简讯的内容。例如,弹幕为“这个视频真好”,而信息简讯为“张三,短信”,这样就能在这个弹幕的区域上完整显示信息简讯。在一些实施例中,信息简讯还可以包括部分信息内容,例如,信息为快递短信,则提取并显示信息中与快递相关的信息,例如快递商家、取货码、取货地点等。
S403、经过初次筛选后,可能存在如下三种情况:
若筛选出的备选覆盖区域数量为0,说明没有找到合适的备选覆盖区域,则可以直接将弹幕显示区域中作为目标覆盖区域。
若筛选出的备选覆盖区域数量为1,说明没有其他可以选择的对象,则可以将该备选覆盖区域作为目标覆盖区域;
若筛选出的备选覆盖区域数量大于1,说明有多个可选择的对象,为了尽可能延长信息简讯的显示时长,则可以选择最接近弹幕运动方向起点的备选覆盖区域,此时该区域的显示时长最大,可以作为目标覆盖区域。
S403、在目标覆盖区域的图层上方显示信息简讯。
所述信息简讯与弹幕的字体、运动方向、速度均相同,使得信息简讯和目标覆盖区域对应的弹幕一起移动,这样在显示了信息简讯的同时,仅影响到了一条弹幕,有效降低了弹窗对画面和弹幕的遮挡。
此外,所述信息简讯与弹幕的色彩不同。例如,画面中弹幕的色彩为白色和红色,则信息简讯的色彩可以设置为黑色或是绿色,以便于用户第一时间注意到。当然,将信息简讯的底色设置为不透明的纯色。
至此,即在不遮挡画面重要内容的前提下,完成了通知信息的提醒。
此外,当播放在线视频的终端为智能眼镜时,需要对其响应方法进行优化,不能采用现有针对触屏的滑动、点击等操作,具体的,可采用如下方式实现:
检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。
其中,预设时长可以根据用户习惯自行设置。响应通知信息可以为打开短信、接电话等,忽略通知信息则可以为取消信息简讯的显示或是挂断电话。当然,一旦用户重新设置了弹幕参数,则需要重新执行上述所有步骤,以保证使用效果。
实施例2:
第二方面,如图5所示,提供了一种用于智能眼镜的信息处理系统,该系统包括:
弹幕数据获取模块,用于最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;
弹幕显示区域确定模块,用于基于弹幕运动信息确定弹幕显示区域;
信息简讯生成模块,用于在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
信息简讯显示模块,用于基于弹幕文本信息在弹幕显示区域中显示信息简讯。
进一步的,所述系统还包括:
响应模块,用于当播放在线视频的终端为智能眼镜时,检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。
可理解的是,本发明实施例提供的用于智能眼镜的信息处理系统与上述用于智能眼镜的信息处理方法相对应,其有关内容的解释、举例、有益效果等部分可以参考用于智能眼镜的信息处理方法中的相应内容,此处不再赘述。
实施例3:
本发明还提供了一种计算机可读存储介质,其存储用于信息处理的计算机程序,其中,所述计算机程序使得计算机执行如下步骤:
最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;所述弹幕文本信息包括:每个弹幕的字符、字体以及色彩信息;所述弹幕运动信息包括:每个弹幕在显示画面中的位置、运动方向和速度信息;
基于弹幕运动信息确定弹幕显示区域;
在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
基于弹幕文本信息在弹幕显示区域中显示信息简讯。
进一步的,所述实时获取显示画面中的弹幕文本信息和弹幕运动信息,包括:
获取连续N帧显示画面,并从中选出M帧作为样本图像;
基于文字识别算法获取每个样本图像中的弹幕文本信息和弹幕的识别框,并将弹幕的识别框作为弹幕在显示画面中的位置;
剔除每帧样本图像中具有相同字符的弹幕,得到该样本图像的单帧弹幕库;
从多个样本图像的单帧弹幕库中筛选出重复出现的弹幕,再基于弹幕在显示画面中的位置获取弹幕在显示画面中的运动方向和速度。
进一步的,所述基于弹幕运动信息确定弹幕显示区域,包括:
基于样本图像构建相同的平面坐标系,将各个样本图像中的弹幕在显示画面中的位置转化为坐标信息;
基于所有弹幕的坐标信息,得到弹幕显示区域。
进一步的,所述基于弹幕文本信息在弹幕显示区域中显示信息简讯,包括:
获取最近一帧显示画面中的所有弹幕的识别框,并剔除与显示画面的边界距离小于阈值的弹幕的识别框,得到若干个备选覆盖区域;
筛选出备选覆盖区域对应的弹幕字符数量不小于信息简讯的备选覆盖区域;
若筛选出的备选覆盖区域数量为0,则将弹幕显示区域中作为目标覆盖区域;
若筛选出的备选覆盖区域数量为1,则将该备选覆盖区域作为目标覆盖区域;
若筛选出的备选覆盖区域数量大于1,则选择最接近弹幕运动方向起点的备选覆盖区域,作为目标覆盖区域;
在目标覆盖区域的图层上方显示信息简讯;所述信息简讯与弹幕的字体、运动方向、速度均相同,且所述信息简讯与弹幕的色彩不同。
进一步的,所述方法还包括:
当播放在线视频的终端为智能眼镜时,检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。
可理解的是,本发明实施例提供的存储介质与上述用于智能眼镜的信息处理方法相对应,其有关内容的解释、举例、有益效果等部分可以参考用于智能眼镜的信息处理方法中的相应内容,此处不再赘述。
实施例4:
本发明还提供了一种电子设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如下步骤:
最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;所述弹幕文本信息包括:每个弹幕的字符、字体以及色彩信息;所述弹幕运动信息包括:每个弹幕在显示画面中的位置、运动方向和速度信息;
基于弹幕运动信息确定弹幕显示区域;
在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
基于弹幕文本信息在弹幕显示区域中显示信息简讯。
进一步的,所述实时获取显示画面中的弹幕文本信息和弹幕运动信息,包括:
获取连续N帧显示画面,并从中选出M帧作为样本图像;
基于文字识别算法获取每个样本图像中的弹幕文本信息和弹幕的识别框,并将弹幕的识别框作为弹幕在显示画面中的位置;
剔除每帧样本图像中具有相同字符的弹幕,得到该样本图像的单帧弹幕库;
从多个样本图像的单帧弹幕库中筛选出重复出现的弹幕,再基于弹幕在显示画面中的位置获取弹幕在显示画面中的运动方向和速度。
进一步的,所述基于弹幕运动信息确定弹幕显示区域,包括:
基于样本图像构建相同的平面坐标系,将各个样本图像中的弹幕在显示画面中的位置转化为坐标信息;
基于所有弹幕的坐标信息,得到弹幕显示区域。
此外,得到弹幕显示区域的方式还可以是根据对应弹幕的坐标信息向四周进行合理延伸,例如沿弹幕的边缘坐标向外延伸弹幕宽度的预设比例,预设比例可以是0-2之间的任意值。
进一步的,所述基于弹幕文本信息在弹幕显示区域中显示信息简讯,包括:
获取最近一帧显示画面中的所有弹幕的识别框,其面积小于弹幕显示区域,并剔除与显示画面的边界距离小于阈值的弹幕的识别框,得到若干个备选覆盖区域,阈值可以人为设置,例如设置为显示画面尺寸的十分之一;
筛选出备选覆盖区域对应的弹幕字符数量不小于信息简讯的备选覆盖区域;
若筛选出的备选覆盖区域数量为0,则将弹幕显示区域中作为目标覆盖区域;
若筛选出的备选覆盖区域数量为1,则将该备选覆盖区域作为目标覆盖区域;
若筛选出的备选覆盖区域数量大于1,则选择最接近弹幕运动方向起点的备选覆盖区域,作为目标覆盖区域;
确定好目标覆盖区域能够方便后续对信息简讯的显示进行处理,从而减少对重要内容的覆盖,提升用户观影体验。
可选地,在目标覆盖区域的图层上方显示信息简讯;所述信息简讯与弹幕的字体、运动方向、速度均相同,且所述信息简讯与弹幕的色彩不同。将信息简讯与弹幕区分开,有助于用户识别出信息简讯。该方式将信息简讯插入到相邻信息简讯之间的空隙,减少了对弹幕等重要内容的遮挡,提升用户观影体验。
进一步的,所述方法还包括:
当播放在线视频的终端为智能眼镜时,检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。忽略通知信息的方式可以是信息简讯离开显示区域,信息简讯离开现实区域的方式可以淡出、爆炸、向一侧飞出等表现形式。
可选地,电子设备可以是智能眼镜。电子设备佩戴于人体头部、并且处于全屏或者最大化模式下时,如图6所示,在一个可选的方案中,虚拟视野中的显示区域和信息简讯与人体之间具有一定距离。并且,信息简讯相对显示区域距离人体更近,当用户摇头或者摆头时,信息简讯显示的位置可以相应发生偏移,给人强烈的三维视觉效应。例如,用户通过移动头部位位置,可以让视线绕过信息简讯看到信息简讯后的显示区域。本发明另一个可选的方案是将信息简讯与画面中的弹幕放置于同一平面,用信息简讯覆盖其中一个弹幕,进而保证不会对重要内容进行遮挡。
可理解的是,本发明实施例提供的电子设备与上述用于智能眼镜的信息处理方法相对应,其有关内容的解释、举例、有益效果等部分可以参考用于智能眼镜的信息处理方法中的相应内容,此处不再赘述。
综上所述,与现有技术相比,具备以下有益效果:
本发明在最大化播放在线视频时,实时获取显示画面中的弹幕文本信息和弹幕运动信息;再基于弹幕运动信息确定弹幕显示区域;随后在收到通知信息后,生成信息简讯;并基于弹幕文本信息在弹幕显示区域中显示信息简讯。能够在不遮挡重要内容的前提下,对通知信息进行提醒,解决了现有的弹窗策略会对画面中的重要内容造成遮挡的问题。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种用于智能眼镜的信息处理方法,其特征在于,该方法包括:
最大化播放在线视频时,获取显示画面中的弹幕文本信息和弹幕运动信息;所述弹幕文本信息包括:每个弹幕的字符、字体以及色彩信息;所述弹幕运动信息包括:每个弹幕在显示画面中的位置、运动方向和速度信息;
基于弹幕运动信息确定弹幕显示区域;
在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
基于弹幕文本信息在弹幕显示区域中显示信息简讯。
2.如权利要求1所述的一种用于智能眼镜的信息处理方法,其特征在于,所述获取显示画面中的弹幕文本信息和弹幕运动信息,包括:
获取连续N帧显示画面,并从中选出M帧作为样本图像;
基于文字识别算法获取每个样本图像中的弹幕文本信息和弹幕的识别框,并将弹幕的识别框作为弹幕在显示画面中的位置;
剔除每帧样本图像中具有相同字符的弹幕,得到该样本图像的单帧弹幕库;
从多个样本图像的单帧弹幕库中筛选出重复出现的弹幕,再基于弹幕在显示画面中的位置获取弹幕在显示画面中的运动方向和速度。
3.如权利要求2所述的一种用于智能眼镜的信息处理方法,其特征在于,所述基于弹幕运动信息确定弹幕显示区域,包括:
基于样本图像构建相同的平面坐标系,将各个样本图像中的弹幕在显示画面中的位置转化为坐标信息;
基于所有弹幕的坐标信息,得到弹幕显示区域。
4.如权利要求3所述的一种用于智能眼镜的信息处理方法,其特征在于,所述基于弹幕文本信息在弹幕显示区域中显示信息简讯,包括:
获取最近一帧显示画面中的所有弹幕的识别框,并剔除与显示画面的边界距离小于阈值的弹幕的识别框,得到若干个备选覆盖区域;
筛选出备选覆盖区域对应的弹幕字符数量不小于信息简讯的备选覆盖区域;
若筛选出的备选覆盖区域数量为0,则将弹幕显示区域中作为目标覆盖区域;
若筛选出的备选覆盖区域数量为1,则将该备选覆盖区域作为目标覆盖区域;
若筛选出的备选覆盖区域数量大于1,则选择最接近弹幕运动方向起点的备选覆盖区域,作为目标覆盖区域;
在目标覆盖区域的图层上方显示信息简讯;所述信息简讯与弹幕的字体、运动方向、速度均相同,且所述信息简讯与弹幕的色彩不同。
5.如权利要求1所述的一种用于智能眼镜的信息处理方法,其特征在于,所述方法还包括:
当播放在线视频的终端为智能眼镜时,检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。
6.一种用于智能眼镜的信息处理系统,其特征在于,该系统包括:
弹幕数据获取模块,用于最大化播放在线视频时,获取显示画面中的弹幕文本信息和弹幕运动信息;
弹幕显示区域确定模块,用于基于弹幕运动信息确定弹幕显示区域;
信息简讯生成模块,用于在收到通知信息后,生成信息简讯;所述信息简讯包括发信人信息和通知类型;
信息简讯显示模块,用于基于弹幕文本信息在弹幕显示区域中显示信息简讯。
7.如权利要求6所述的一种用于智能眼镜的信息处理系统,其特征在于,所述获取显示画面中的弹幕文本信息和弹幕运动信息,包括:
获取连续N帧显示画面,并从中选出M帧作为样本图像;
基于文字识别算法获取每个样本图像中的弹幕文本信息和弹幕的识别框,并将弹幕的识别框作为弹幕在显示画面中的位置;
剔除每帧样本图像中具有相同字符的弹幕,得到该样本图像的单帧弹幕库;
从多个样本图像的单帧弹幕库中筛选出重复出现的弹幕,再基于弹幕在显示画面中的位置获取弹幕在显示画面中的运动方向和速度。
8.如权利要求7所述的一种用于智能眼镜的信息处理系统,其特征在于,所述基于弹幕运动信息确定弹幕显示区域,包括:
基于样本图像构建相同的平面坐标系,将各个样本图像中的弹幕在显示画面中的位置转化为坐标信息;
基于所有弹幕的坐标信息,得到弹幕显示区域。
9.如权利要求8所述的一种用于智能眼镜的信息处理系统,其特征在于,所述基于弹幕文本信息在弹幕显示区域中显示信息简讯,包括:
获取最近一帧显示画面中的所有弹幕的识别框,并剔除与显示画面的边界距离小于阈值的弹幕的识别框,得到若干个备选覆盖区域;
筛选出备选覆盖区域对应的弹幕字符数量不小于信息简讯的备选覆盖区域;
若筛选出的备选覆盖区域数量为0,则将弹幕显示区域中作为目标覆盖区域;
若筛选出的备选覆盖区域数量为1,则将该备选覆盖区域作为目标覆盖区域;
若筛选出的备选覆盖区域数量大于1,则选择最接近弹幕运动方向起点的备选覆盖区域,作为目标覆盖区域;
在目标覆盖区域的图层上方显示信息简讯;所述信息简讯与弹幕的字体、运动方向、速度均相同,且所述信息简讯与弹幕的色彩不同。
10.如权利要求6所述的一种用于智能眼镜的信息处理系统,其特征在于,所述系统还包括:
响应模块,用于当播放在线视频的终端为智能眼镜时,检测用户视线焦点,若用户视线焦点停留在信息简讯上的连续时长超过预设时长,则响应通知信息;否则,忽略通知信息。
CN202210633289.5A 2022-06-07 2022-06-07 用于智能眼镜的信息处理方法和系统 Active CN114911396B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210633289.5A CN114911396B (zh) 2022-06-07 2022-06-07 用于智能眼镜的信息处理方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210633289.5A CN114911396B (zh) 2022-06-07 2022-06-07 用于智能眼镜的信息处理方法和系统

Publications (2)

Publication Number Publication Date
CN114911396A true CN114911396A (zh) 2022-08-16
CN114911396B CN114911396B (zh) 2024-08-06

Family

ID=82769938

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210633289.5A Active CN114911396B (zh) 2022-06-07 2022-06-07 用于智能眼镜的信息处理方法和系统

Country Status (1)

Country Link
CN (1) CN114911396B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106792176A (zh) * 2016-12-27 2017-05-31 三星电子(中国)研发中心 视频播放中显示短信的方法和智能终端设备
WO2022011905A1 (zh) * 2020-07-14 2022-01-20 Tcl科技集团股份有限公司 一种通知信息的推送方法、智能终端及存储介质
CN114257849A (zh) * 2020-09-22 2022-03-29 华为技术有限公司 弹幕播放方法、相关设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106792176A (zh) * 2016-12-27 2017-05-31 三星电子(中国)研发中心 视频播放中显示短信的方法和智能终端设备
WO2022011905A1 (zh) * 2020-07-14 2022-01-20 Tcl科技集团股份有限公司 一种通知信息的推送方法、智能终端及存储介质
CN114257849A (zh) * 2020-09-22 2022-03-29 华为技术有限公司 弹幕播放方法、相关设备及存储介质

Also Published As

Publication number Publication date
CN114911396B (zh) 2024-08-06

Similar Documents

Publication Publication Date Title
US10134364B2 (en) Prioritized display of visual content in computer presentations
US10896478B2 (en) Image grid with selectively prominent images
US9398349B2 (en) Comment information generation device, and comment display device
CN106375674B (zh) 寻找和使用与相邻静态图像相关的视频部分的方法和装置
EP2109313B1 (en) Television receiver and method
CN110675310A (zh) 视频处理方法、装置、电子设备及存储介质
CN112135041B (zh) 一种人脸特效的处理方法及装置、存储介质
CN109167893B (zh) 拍摄图像的处理方法、装置、存储介质及移动终端
CN112383830A (zh) 视频封面确定方法及装置、存储介质
US20140223474A1 (en) Interactive media systems
CN112995678B (zh) 一种视频运动补偿方法、装置及计算机设备
US20190297297A1 (en) Video playing method and device
CN112188263B (zh) 一种弹幕信息控制方法及播放设备
CN112532881A (zh) 图像处理方法、装置和电子设备
CN110969673A (zh) 一种直播换脸交互实现方法、存储介质、设备及系统
CN112866801A (zh) 视频封面的确定方法、装置、电子设备及存储介质
CN110324697B (zh) 一种弹幕显示方法、终端设备及计算机可读存储介质
CN113794831B (zh) 视频拍摄方法、装置、电子设备及介质
CN112906686A (zh) 文字识别方法、装置、电子设备及存储介质
CN114911396B (zh) 用于智能眼镜的信息处理方法和系统
CN109040604B (zh) 拍摄图像的处理方法、装置、存储介质及移动终端
CN114584824A (zh) 数据处理方法、系统、电子设备、服务端及客户端设备
CN115461715A (zh) 消息展示方法、移动终端以及计算机可读存储介质
CN114546229B (zh) 信息处理方法、截屏方法及电子设备
CN113703901A (zh) 图形码显示方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant