CN111859158A - 信息推送、视频处理方法和设备 - Google Patents

信息推送、视频处理方法和设备 Download PDF

Info

Publication number
CN111859158A
CN111859158A CN202010777098.7A CN202010777098A CN111859158A CN 111859158 A CN111859158 A CN 111859158A CN 202010777098 A CN202010777098 A CN 202010777098A CN 111859158 A CN111859158 A CN 111859158A
Authority
CN
China
Prior art keywords
appearing
coordinate
information
item
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010777098.7A
Other languages
English (en)
Inventor
崔英林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Lianshang Network Technology Co Ltd
Original Assignee
Shanghai Lianshang Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Lianshang Network Technology Co Ltd filed Critical Shanghai Lianshang Network Technology Co Ltd
Priority to CN202010777098.7A priority Critical patent/CN111859158A/zh
Publication of CN111859158A publication Critical patent/CN111859158A/zh
Priority to PCT/CN2021/104450 priority patent/WO2022028177A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本申请实施例公开了信息推送、视频处理方法和设备。信息推送方法的一具体实施方式包括:对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息;在播放设备上播放视频流;响应于确定视频流的当前视频帧中存在用户的关注物品,确定关注物品的标识信息;基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。该实施方式从视频流出现的众多物品中发现用户感兴趣的物品,并自动呈现其推送信息,从而满足了用户详细了解其感兴趣物品的信息的需求,以便于购买其感兴趣的物品,节省了用户的操作成本。

Description

信息推送、视频处理方法和设备
技术领域
本申请实施例涉及计算机技术领域,具体涉及信息推送、视频处理方法和设备。
背景技术
随着互联网的飞速发展,视频应用支持的功能越来越多样,例如直播功能、点播功能等等。进而吸引了越来越多的用户观看视频,且观看时间也越来越久。视频中经常会出现各种物品,例如衣服、装饰品、食品等等。若用户对其中的物品感兴趣,需要先将视频应用后台运行,再打开搜索应用或购物应用,输入物品名称进行搜索,才能获取物品的详细信息。
发明内容
本申请实施例提出了信息推送、视频处理方法和设备。
第一方面,本申请实施例提供了一种信息推送方法,包括:对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息;在播放设备上播放视频流;响应于确定视频流的当前视频帧中存在用户的关注物品,确定关注物品的标识信息;基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。
在一些实施例中,确定视频流的当前视频帧中存在用户的关注物品,包括:采集用户的语音信息;对语音信息进行识别,确定语音信息包含的物品名称;若物品名称与当前视频帧的出现物品匹配,将匹配的出现物品确定为关注物品。
在一些实施例中,确定视频流的当前视频帧中存在用户的关注物品,包括:在视频流的出现物品所在的视频帧中设置触发区域;响应于检测到用户确认当前视频帧的触发区域,将确认的触发区域对应的出现物品确定为关注物品。
在一些实施例中,标识信息包括坐标信息;以及在视频流的出现物品所在的视频帧中设置触发区域,包括:将坐标信息对应的区域设置为触发区域。
在一些实施例中,坐标信息是百分比坐标;以及将坐标信息对应的区域设置为触发区域,包括:基于播放设备的分辨率和当前视频帧的出现物品的百分比坐标,计算当前视频帧的出现物品的点阵坐标;将点阵坐标对应的区域设置为触发区域。
在一些实施例中,基于播放设备的分辨率和当前视频帧的出现物品的百分比坐标,计算当前视频帧的出现物品的点阵坐标,包括:若百分比坐标的坐标系与播放设备的屏幕坐标系相同,将播放设备的分辨率的水平像素值和垂直像素值与当前视频帧的出现物品的百分比坐标的水平坐标值和垂直坐标值对应相乘,得到当前视频帧的出现物品的点阵坐标。
在一些实施例中,基于播放设备的分辨率和当前视频帧的出现物品的百分比坐标,计算当前视频帧的出现物品的点阵坐标,还包括:若百分比坐标的坐标系与播放设备的屏幕坐标系不同,对百分比坐标的坐标系进行转换,得到屏幕坐标系下的转换百分比坐标;将播放设备的分辨率的水平像素值和垂直像素值与当前视频帧的出现物品的转换百分比坐标的水平坐标值和垂直坐标值对应相乘,得到当前视频帧的出现物品的点阵坐标。
在一些实施例中,检测到用户确认当前视频帧的触发区域,包括:若用户触摸当前视频帧的触发区域,确定用户确认触发区域。
在一些实施例中,检测到用户确认当前视频帧的触发区域,包括:捕捉用户的眼睛的焦点;响应于确定焦点在当前视频帧的触发区域,确定用户确认触发区域。
在一些实施例中,捕捉用户的眼睛的焦点,包括:利用播放设备的摄像头向眼睛发射光束;利用播放设备的屏幕上的感光材料感应从眼睛反射的光束强度;基于光束强度确定屏幕上的暗点,作为焦点。
第二方面,本申请实施例提供了一种视频处理方法,包括:对视频流进行物品识别,确定视频流的出现物品;获取出现物品的标识信息;将出现物品的标识信息添加到对应的视频帧协议中,生成视频数据。
在一些实施例中,获取出现物品的标识信息,包括:对视频流进行位置识别,确定出现物品的坐标信息;将出现物品的坐标信息添加到出现物品的标识信息中。
在一些实施例中,对视频流进行位置识别,确定出现物品的坐标信息,包括:在试播设备上模拟试播视频流;对视频流进行位置识别,得到出现物品的点阵坐标;基于出现物品的点阵坐标,确定出现物品的坐标信息。
在一些实施例中,基于出现物品的点阵坐标,确定出现物品的坐标信息,包括:将出现物品的点阵坐标的水平坐标值和垂直坐标值与试播设备的分辨率的水平像素值和垂直像素值对应相除,得到出现物品的百分比坐标。
在一些实施例中,对于视频流中的连续视频帧的出现物品,添加到首次出现物品的视频帧协议中的标识信息包括物品名称、坐标信息、简要信息和/或网页链接,添加到非首次出现物品的视频帧协议的标识信息包括物品名称和坐标信息。
在一些实施例中,将出现物品的标识信息添加到对应的视频帧协议中,包括:基于出现物品的标识信息扩展对应的视频帧协议的网络抽象层信息。
第三方面,本申请实施例提供了一种信息推送装置,包括:转换单元,被配置成对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息;播放单元,被配置成在播放设备上播放视频流;确定单元,被配置成响应于确定视频流的当前视频帧中存在用户的关注物品,确定关注物品的标识信息;呈现单元,被配置成基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。
在一些实施例中,确定单元进一步被配置成:采集用户的语音信息;对语音信息进行识别,确定语音信息包含的物品名称;若物品名称与当前视频帧的出现物品匹配,将匹配的出现物品确定为关注物品。
在一些实施例中,确定单元包括:设置子单元,被配置成在视频流的出现物品所在的视频帧中设置触发区域;确定子单元,被配置成响应于检测到用户确认当前视频帧的触发区域,将确认的触发区域对应的出现物品确定为关注物品。
在一些实施例中,标识信息包括坐标信息;以及设置子单元包括:设置模块,被配置成将坐标信息对应的区域设置为触发区域。
在一些实施例中,坐标信息是百分比坐标;以及设置模块,包括:计算子模块,被配置成基于播放设备的分辨率和当前视频帧的出现物品的百分比坐标,计算当前视频帧的出现物品的点阵坐标;设置子模块,被配置成将点阵坐标对应的区域设置为触发区域。
在一些实施例中,计算子模块进一步被配置成:若百分比坐标的坐标系与播放设备的屏幕坐标系相同,将播放设备的分辨率的水平像素值和垂直像素值与当前视频帧的出现物品的百分比坐标的水平坐标值和垂直坐标值对应相乘,得到当前视频帧的出现物品的点阵坐标。
在一些实施例中,计算子模块进一步被配置成:若百分比坐标的坐标系与播放设备的屏幕坐标系不同,对百分比坐标的坐标系进行转换,得到屏幕坐标系下的转换百分比坐标;将播放设备的分辨率的水平像素值和垂直像素值与当前视频帧的出现物品的转换百分比坐标的水平坐标值和垂直坐标值对应相乘,得到当前视频帧的出现物品的点阵坐标。
在一些实施例中,确定子单元进一步被配置成:若用户触摸当前视频帧的触发区域,确定用户确认触发区域。
在一些实施例中,确定子单元包括:捕捉模块,被配置成捕捉用户的眼睛的焦点;确定模块,被配置成响应于确定焦点在当前视频帧的触发区域,确定用户确认触发区域。
在一些实施例中,捕捉模块进一步被配置成:利用播放设备的摄像头向眼睛发射光束;利用播放设备的屏幕上的感光材料感应从眼睛反射的光束强度;基于光束强度确定屏幕上的暗点,作为焦点。
第四方面,本申请实施例提供了一种视频处理装置,包括:确定单元,被配置成对视频流进行物品识别,确定视频流的出现物品;获取单元,被配置成获取出现物品的标识信息;添加单元,被配置成将出现物品的标识信息添加到对应的视频帧协议中,生成视频数据。
在一些实施例中,获取单元包括:确定子单元,被配置成对视频流进行位置识别,确定出现物品的坐标信息;添加子单元,被配置成将出现物品的坐标信息添加到出现物品的标识信息中。
在一些实施例中,确定子单元包括:试播模块,被配置成在试播设备上模拟试播视频流;识别模块,被配置成对视频流进行位置识别,得到出现物品的点阵坐标;确定模块,被配置成基于出现物品的点阵坐标,确定出现物品的坐标信息。
在一些实施例中,确定模块进一步被配置成:将出现物品的点阵坐标的水平坐标值和垂直坐标值与试播设备的分辨率的水平像素值和垂直像素值对应相除,得到出现物品的百分比坐标。
在一些实施例中,对于视频流中的连续视频帧的出现物品,添加到首次出现物品的视频帧协议中的标识信息包括物品名称、坐标信息、简要信息和/或网页链接,添加到非首次出现物品的视频帧协议的标识信息包括物品名称和坐标信息。
在一些实施例中,添加单元进一步被配置成:基于出现物品的标识信息扩展对应的视频帧协议的网络抽象层信息。
第五方面,本申请实施例提供了一种计算机设备,该计算机设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法或实现如第二方面中任一实现方式描述的方法。
第六方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法或实现如第二方面中任一实现方式描述的方法。
本申请实施例提供的信息推送、视频处理方法和设备,首先对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息;之后在播放设备上播放视频流;然后响应于确定视频流的当前视频帧中存在用户的关注物品,确定关注物品的标识信息;最后基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。从视频流出现的众多物品中发现用户感兴趣的物品,并自动呈现其推送信息,从而满足了用户详细了解其感兴趣物品的信息的需求,以便于购买其感兴趣的物品,节省了用户的操作成本。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构;
图2是根据本申请的信息推送方法的一个实施例的流程图;
图3是根据本申请的信息推送方法的又一个实施例的流程图;
图4是根据本申请的信息推送方法的另一个实施例的流程图;
图5是根据本申请的视频处理方法的一个实施例的流程图;
图6是适于用来实现本申请实施例的计算机设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的信息推送、视频处理方法的实施例的示例性系统架构100。
如图1所示,系统架构100中可以包括设备101、102和网络103。网络103用以在设备101、102之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
设备101、102可以是支持网络连接从而提供各种网络服务的硬件设备或软件。当设备为硬件时,其可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机和服务器等等。这时,作为硬件设备,其可以实现成多个设备组成的分布式设备群,也可以实现成单个设备。当设备为软件时,可以安装在上述所列举的电子设备中。这时,作为软件,其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
在实践中,设备可以通过安装相应的客户端应用或服务端应用来提供相应的网络服务。设备在安装了客户端应用之后,其可以在网络通信中体现为客户端。相应地,在安装了服务端应用之后,其可以在网络通信中体现为服务端。
作为示例,在图1中,设备101体现为客户端,而设备102体现为服务端。例如,设备101可以是视频类应用的客户端,设备102可以是视频类应用的服务端。
需要说明的是,本申请实施例所提供的信息推送方法和视频处理方法可以由设备101执行。当设备101执行信息推送方法时,其可以是播放设备。当设备102执行视频处理方法时,其可以是试播设备。
应该理解,图1中的网络和设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的网络和设备。
继续参考图2,其示出了根据本申请的信息推送方法的一个实施例的流程200。该信息推送方法包括以下步骤:
步骤201,对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息。
在本实施例中,信息推送方法的执行主体(例如图1所示的设备101)可以从视频类应用的后台服务器(例如图1所示的设备102)获取视频数据,并对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息。
其中,视频数据可以包括视频流和视频流的出现物品的标识信息。视频流是可播放数据,包括但不限于电视剧、电影、直播、短视频等等。视频流的出现物品的标识信息是不可播放数据,用于标识视频流中出现的物品,包括但不限于物品名称、坐标信息、简要信息和网页链接等等。出现物品可以是视频流中出现的物品,例如衣服、装饰品、食品等等。
对于视频流中的视频帧,并不是每帧视频帧中都出现物品,也不是出现的每个物品都有标识信息,因此,仅对有标识信息的物品所在的视频帧进行码流编码处理,改造视频帧协议,在原有视频帧协议中添加标识信息。视频数据中添加了不可播放数据无法直接播放,因此需要对视频数据进行码流转换,将可播放的视频流和不可播放的标识信息分离开来。其中,码流转换可以采用静态转码方式或动态转码方式。
需要说明的是,在对视频帧协议改造时,针对不同的协议格式,其改造方式不同。以H.264为例,通过扩展视频帧协议的NAL(Network Abstraction Layer,网络抽象层)信息来支持添加标识信息。其中,NAL可以包括NAL Header、NAL Extension和NAL payload。NALHeader可以用于存储视频帧的基本信息。NAL payload可以用于存储视频帧的二进制流。NAL Extension可以用于存储标识信息。需要说明的是,由于视频帧本身是一个高压缩的数据体,因此NAL Extension也需要具有高压缩性。
在实际应用中,同一物品可以在连续多帧视频帧中出现。对于视频流中的连续视频帧的出现物品,添加到首次出现物品的视频帧协议中的标识信息可以是详细信息,包括物品名称、坐标信息、简要信息和/或网页链接,对应的视频帧叫做详细帧;添加到非首次出现物品的视频帧协议的标识信息可以是缩略信息,包括物品名称和坐标信息,对应的视频帧叫做缩略帧。这样,能够达到节省空间的目的。在播放设备播放视频流的过程中,在播放到详细帧时,可以将详细信息解码缓存,之后再播放缩略帧时,若检测到当前视频帧中存在用户的关注物品,则基于关注物品的缩略信息进行缓存查询,即可得到关注物品的详细信息。
步骤202,在播放设备上播放视频流。
在本实施例中,上述执行主体可以在播放设备上播放视频流。
通常,在上述执行主体作为硬件的情况下,其可以是播放设备,其上安装有播放器,用于播放视频流。
需要说明的是,播放设备通常边进行码流转换边播放视频流。因此,在视频流播放过程中,即可陆续得到视频流的出现物品的标识信息。
步骤203,响应于确定视频流的当前视频帧中存在用户的关注物品,确定关注物品的标识信息。
在本实施例中,上述执行主体可以确定视频流的当前视频帧中是否存在用户的关注物品。若存在用户的关注物品,确定关注物品的标识信息;若不存在用户的关注物品,继续播放视频流。
其中,用户的关注物品可以由上述执行主体基于用户观看视频流时的反应来确定。通常,用户看到其感兴趣的物品时,会作出特殊反应,例如当用户的关注物品在视频流中出现时,用户可以说出关注物品的名称。此时,上述执行主体可以采集用户的语音信息,并对语音信息进行识别,确定语音信息包含的物品名称。若物品名称与当前视频帧的出现物品匹配,将匹配的出现物品确定为关注物品;若物品名称与当前视频帧的出现物品不匹配,继续采集用户的语音信息。当前视频帧是当前播放的视频帧。同一视频帧中可以出现多个物品,与用户的语音信息包含的物品名称匹配的物品才是用户的关注物品。例如,用户说出“手表”,而当前视频帧的出现物品包括A品牌的手表、B品牌的衣服和C品牌的鞋子,只有A品牌的手表与“手表”匹配,是用户的关注物品。
步骤204,基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。
在本实施例中,上述执行主体可以基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。其中,推送信息可以是供用户浏览关注物品的详细信息的链接或购买关注物品的链接。通常,推送信息可以呈现在当前视频帧上,尤其是呈现在当前视频帧中的关注物品的附近。随后,用户可以基于推送信息进行相应操作,以查看关注物品的详情信息或者购买关注物品。
通常,上述执行主体可以通过多种途径查询关注物品的推送信息。例如,在本地存储大量物品的推送信息的情况下,本地查找关注物品的推送信息。又例如,在视频类应用集成搜索功能或购物功能的情况下,基于关注物品的标识信息向视频类应用的后台服务器发送推送信息获取请求,并接收视频类应用的后台服务器返回的关注物品的推送信息。再例如,基于关注物品的标识信息向搜索应用或购物应用的后台服务器发送推送信息获取请求,并接收搜索应用或购物应用的后台服务器返回的关注物品的推送信息。
本申请实施例提供的信息推送方法,首先对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息;之后在播放设备上播放视频流;然后响应于确定视频流的当前视频帧中存在用户的关注物品,确定关注物品的标识信息;最后基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。从视频流出现的众多物品中发现用户感兴趣的物品,并自动呈现其推送信息,从而满足了用户详细了解其感兴趣物品的信息的需求,实现了关注物品的快速推送,节省了用户的操作成本。
进一步参考图3,其示出了是根据本申请的信息推送方法的又一个实施例的流程300。该信息推送方法包括以下步骤:
步骤301,对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息。
步骤302,在播放设备上播放视频流。
在本实施例中,步骤301-302的具体操作已在图2所示的实施例中步骤201-202中进行了详细的介绍,在此不再赘述。
步骤303,在视频流的出现物品所在的视频帧中设置触发区域。
在本实施例中,信息推送方法的执行主体(例如图1所示的设备101)可以在视频流的出现物品所在的视频帧中设置触发区域。
通常,触发区域可以设置在视频帧的出现物品的附近。例如,在标识信息包括坐标信息的情况下,将坐标信息对应的区域设置为触发区域。应当理解的是,当视频帧的出现物品的数量是多个时,可以设置多个触发区域,一个触发区域对应一个出现物品。
步骤304,响应于检测到用户确认当前视频帧的触发区域,将确认的触发区域对应的出现物品确定为关注物品。
在本实施例中,上述执行主体可以检测用户是否确认当前视频帧的触发区域。若检测到用户确认当前视频帧的触发区域,将确认的触发区域对应的出现物品确定为关注物品;若未检测到用户确认当前视频帧的触发区域,继续播放视频流,并持续检测。
其中,用户对触发区域进行操作时,可以认为确定了触发区域。播放设备需要具有相应的硬件或插件来检测用户对触发区域的操作,而视频流本身没有监测和网络连接能力。
在一些实施例中,在播放设备具有触摸屏的情况下,若用户触摸当前视频帧的触发区域,确定用户确认触发区域。
在一些实施例中,在播放设备具有摄像头的情况下,若捕捉到用户的眼睛的焦点在当前视频帧的触发区域,确定用户确认触发区域。例如,上述执行主体可以在分析摄像头采集到的用户图像中的用户的眼睛的视角,以确定用户的眼睛的焦点是否落在触发区域。又例如,在播放设备的屏幕上覆盖有感光材料的情况下,上述执行主体可以首先利用摄像头向用户的眼睛发射光束;然后利用播放设备的屏幕上的感光材料感应从眼睛反射的光束强度;最后基于光束强度确定屏幕上的暗点,作为用户的眼睛的焦点。其中,当光束照射到眼睛的瞳孔时,瞳孔会吸收大部分光束,从而使反射到屏幕上的光束强度较低,出现暗点。而光束照射到除瞳孔之外的部分,大部分光束会被反射到屏幕上,光束强度较低,出现亮点。
步骤305,确定关注物品的标识信息。
步骤306,基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。
在本实施例中,步骤305-306的具体操作已在图2所示的实施例中步骤203-204中进行了详细的介绍,在此不再赘述。
从图3中可以看出,与图2对应的实施例相比,本实施例中的信息推送方法的流程300突出了确定用户的关注物品的步骤。由此,本实施例描述的方案在出现物品所在的视频帧中设置触发区域,基于用户对触发区域操作来确定关注物品,从而提升了关注物品的确定准确度。
进一步参考图4,其示出了是根据本申请的信息推送方法的另一个实施例的流程400。该信息推送方法包括以下步骤:
步骤401,对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息。
步骤402,在播放设备上播放视频流。
在本实施例中,步骤401-402的具体操作已在图3所示的实施例中步骤301-302中进行了详细的介绍,在此不再赘述。
步骤403,基于播放设备的分辨率和当前视频帧的出现物品的百分比坐标,计算当前视频帧的出现物品的点阵坐标。
在本实施例中,在标识信息中的坐标信息是百分比坐标的情况下,信息推送方法的执行主体(例如图1所示的设备101)可以基于播放设备的分辨率和当前视频帧的出现物品的百分比坐标,计算当前视频帧的出现物品的点阵坐标。
由于不同的播放设备具有不同的屏幕分辨率,为了适应不同屏幕分辨率,标识信息中的坐标信息是百分比坐标。而确定触发区域时需要点阵坐标,因此需要将百分比坐标转换为对应的点阵坐标。具体地,上述执行主体可以将播放设备的分辨率的水平像素值和垂直像素值与当前视频帧的出现物品的百分比坐标的水平坐标值和垂直坐标值对应相乘,得到当前视频帧的出现物品的点阵坐标。
例如,利用分辨率为A*B的播放设备来播放视频流。如果出现物品的百分比坐标为(x/a,y/b),那么出现物品的点阵坐标为(x*A/a,y*B/b)。其中,a、b、A和B为正整数,x为不大于a的正整数,y为不大于b的正整数,x/a和y/b为不大于1的正数,x*A/a和y*B/b为正整数。
通常,百分比坐标的坐标系与播放设备的屏幕坐标系相同,均是以左上角为原点,向右为横轴的正方向,向下为纵轴的正方向。此时,直接将播放设备的分辨率的水平像素值和垂直像素值与当前视频帧的出现物品的百分比坐标的水平坐标值和垂直坐标值对应相乘,即可得到当前视频帧的出现物品的点阵坐标。在特殊情况下,若百分比坐标的坐标系与播放设备的屏幕坐标系不同,则需要先对百分比坐标的坐标系进行转换,得到屏幕坐标系下的转换百分比坐标;然后将播放设备的分辨率的水平像素值和垂直像素值与当前视频帧的出现物品的转换百分比坐标的水平坐标值和垂直坐标值对应相乘,得到当前视频帧的出现物品的点阵坐标。
步骤404,将点阵坐标对应的区域设置为触发区域。
在本实施例中,上述执行主体可以将点阵坐标对应的区域设置为触发区域。
步骤405,响应于检测到用户确认当前视频帧的触发区域,将确认的触发区域对应的出现物品确定为关注物品。
步骤406,确定关注物品的标识信息。
步骤407,基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。
在本实施例中,步骤405-407的具体操作已在图3所示的实施例中步骤304-306中进行了详细的介绍,在此不再赘述。
从图4中可以看出,与图3对应的实施例相比,本实施例中的信息推送方法的流程400突出了设置触发区域的步骤。由此,本实施例描述的方案中的标识信息中的坐标信息是百分比坐标,通过坐标转换来得到对应的点阵坐标,从而适应不同播放设备的不同屏幕分辨率。
继续参考图5,其示出了根据本申请的视频处理方法的一个实施例的流程500。该视频处理方法包括以下步骤:
步骤501,对视频流进行物品识别,确定视频流的出现物品。
在本实施例中,视频处理方法的执行主体(例如图1所示的设备101)可以对视频流进行物品识别,确定视频流的出现物品。
通常,上述执行主体可以通过多种方式确定视频流的出现物品。在一些实施例中,本领域技术人员可以对视频流进行物品识别,将识别结果输入至上述执行主体。在一些实施例中,上述执行主体可以将视频流拆分为一系列的视频帧,并对每一帧视频帧进行物品识别,以确定视频流的出现物品。
步骤502,获取出现物品的标识信息。
在本实施例中,上述执行主体可以获取出现物品的标识信息。其中,出现物品的标识信息是不可播放数据,用于标识视频流中出现的物品。
在一些实施例中,标识信息可以包括坐标信息。具体地,上述执行主体可以对视频流进行位置识别,确定出现物品的坐标信息;将出现物品的坐标信息添加到出现物品的标识信息中。其中,坐标信息可以是通过在试播设备上模拟试播视频流来确定。具体地,在首先试播设备上模拟试播视频流;之后对视频流进行位置识别,得到出现物品的点阵坐标;最后基于出现物品的点阵坐标,确定出现物品的坐标信息。
通常,在大部分播放设备与试播设备的屏幕分辨率统一的情况下,坐标信息可以是点阵坐标。然而实际应用中,不同的播放设备具有不同的屏幕分辨率,为了适应不同屏幕分辨率,标识信息中的坐标信息是百分比坐标。具体地,将出现物品的点阵坐标的水平坐标值和垂直坐标值与试播设备的分辨率的水平像素值和垂直像素值对应相除,即可得到出现物品的百分比坐标。
例如,利用分辨率为a*b的标准设备来试播视频流,如果在试播设备上捕捉到的出现物品的点阵坐标为(x,y),那么出现物品的百分比坐标为(x/a,y/b)。其中,a和b为正整数,x为不大于a的正整数,y为不大于b的正整数,x/a和y/b为不大于1的正数。
需要说明的是,试播设备的分辨率的选择需要和视频分辨率匹配,例如720p以上选择16:9,以下选择4:3。这样,能够尽可能的减小误差。
步骤503,将出现物品的标识信息添加到对应的视频帧协议中,生成视频数据。
在本实施例中,上述执行主体可以将出现物品的标识信息添加到对应的视频帧协议中,生成视频数据。
通常,通过对有标识信息的物品所在的视频帧进行码流编码处理,改造视频帧协议,即可在原有视频帧协议中添加标识信息。在对视频帧协议改造时,针对不同的协议格式,其改造方式不同。以H.264为例,基于出现物品的标识信息扩展对应的视频帧协议的NAL信息来支持添加标识信息。其中,NAL可以包括NAL Header、NAL Extension和NAL payload。NAL Header可以用于存储视频帧的基本信息。NAL payload可以用于存储视频帧的二进制流。NAL Extension可以用于存储标识信息。需要说明的是,由于视频帧本身是一个高压缩的数据体,因此NAL Extension也需要具有高压缩性。
在实际应用中,同一物品可以在连续多帧视频帧中出现。对于视频流中的连续视频帧的出现物品,添加到首次出现物品的视频帧协议中的标识信息可以是详细信息,包括物品名称、坐标信息、简要信息和/或网页链接,对应的视频帧叫做详细帧;添加到非首次出现物品的视频帧协议的标识信息可以是缩略信息,包括物品名称和坐标信息,对应的视频帧叫做缩略帧。这样,能够达到节省空间的目的。在播放设备播放视频流的过程中,在播放到详细帧时,可以将详细信息解码缓存,之后再播放缩略帧时,若检测到当前视频帧中存在用户的关注物品,则基于关注物品的缩略信息进行缓存查询,即可得到关注物品的详细信息。
本申请实施例提供的视频处理方法,首先对视频流进行物品识别,确定视频流的出现物品;然后获取出现物品的标识信息;最后将出现物品的标识信息添加到对应的视频帧协议中,生成视频数据,从而实现了在视频流中添加不可播放数据。
下面参考图6,其示出了适于用来实现本申请实施例的计算机设备(例如图1所示的设备101)的计算机系统600的结构示意图。图6示出的计算机设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或电子设备上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括转换单元、播放单元、确定单元和呈现单元。其中,这些单元的名称在种情况下并不构成对该单元本身的限定,例如,转换单元还可以被描述为“对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息的单元”。又例如,可以描述为:一种处理器包括确定单元、获取单元和添加单元。其中,这些单元的名称在种情况下并不构成对该单元本身的限定,例如,确定单元还可以被描述为“对视频流进行物品识别,确定视频流的出现物品的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的计算机设备中所包含的;也可以是单独存在,而未装配入该计算机设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该计算机设备执行时,使得该计算机设备:对视频数据进行码流转换,得到视频流和视频流的出现物品的标识信息;在播放设备上播放视频流;响应于确定视频流的当前视频帧中存在用户的关注物品,确定关注物品的标识信息;基于关注物品的标识信息,查询关注物品的推送信息,以及呈现推送信息。或者使得该计算机设备:对视频流进行物品识别,确定视频流的出现物品;获取出现物品的标识信息;将出现物品的标识信息添加到对应的视频帧协议中,生成视频数据。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (18)

1.一种信息推送方法,包括:
对视频数据进行码流转换,得到视频流和所述视频流的出现物品的标识信息;
在播放设备上播放所述视频流;
响应于确定所述视频流的当前视频帧中存在用户的关注物品,确定所述关注物品的标识信息;
基于所述关注物品的标识信息,查询所述关注物品的推送信息,以及呈现所述推送信息。
2.根据权利要求1所述的方法,其中,所述确定所述视频流的当前视频帧中存在用户的关注物品,包括:
采集所述用户的语音信息;
对所述语音信息进行识别,确定所述语音信息包含的物品名称;
若所述物品名称与所述当前视频帧的出现物品匹配,将匹配的出现物品确定为所述关注物品。
3.根据权利要求1所述的方法,其中,所述确定所述视频流的当前视频帧中存在用户的关注物品,包括:
在所述视频流的出现物品所在的视频帧中设置触发区域;
响应于检测到所述用户确认所述当前视频帧的触发区域,将确认的触发区域对应的出现物品确定为所述关注物品。
4.根据权利要求3所述的方法,其中,所述标识信息包括坐标信息;以及
所述在所述视频流的出现物品所在的视频帧中设置触发区域,包括:
将所述坐标信息对应的区域设置为所述触发区域。
5.根据权利要求4所述的方法,其中,所述坐标信息是百分比坐标;以及
所述将所述坐标信息对应的区域设置为所述触发区域,包括:
基于所述播放设备的分辨率和所述当前视频帧的出现物品的百分比坐标,计算所述当前视频帧的出现物品的点阵坐标;
将所述点阵坐标对应的区域设置为所述触发区域。
6.根据权利要求5所述的方法,其中,所述基于所述播放设备的分辨率和所述当前视频帧的出现物品的百分比坐标,计算所述当前视频帧的出现物品的点阵坐标,包括:
若所述百分比坐标的坐标系与所述播放设备的屏幕坐标系相同,将所述播放设备的分辨率的水平像素值和垂直像素值与所述当前视频帧的出现物品的百分比坐标的水平坐标值和垂直坐标值对应相乘,得到所述当前视频帧的出现物品的点阵坐标。
7.根据权利要求6所述的方法,其中,所述基于所述播放设备的分辨率和所述当前视频帧的出现物品的百分比坐标,计算所述当前视频帧的出现物品的点阵坐标,还包括:
若所述百分比坐标的坐标系与所述播放设备的屏幕坐标系不同,对所述百分比坐标的坐标系进行转换,得到所述屏幕坐标系下的转换百分比坐标;
将所述播放设备的分辨率的水平像素值和垂直像素值与所述当前视频帧的出现物品的转换百分比坐标的水平坐标值和垂直坐标值对应相乘,得到所述当前视频帧的出现物品的点阵坐标。
8.根据权利要求3所述的方法,其中,所述检测到所述用户确认所述当前视频帧的触发区域,包括:
若所述用户触摸所述当前视频帧的触发区域,确定所述用户确认所述触发区域。
9.根据权利要求3所述的方法,其中,所述检测到所述用户确认所述当前视频帧的触发区域,包括:
捕捉所述用户的眼睛的焦点;
响应于确定所述焦点在所述当前视频帧的触发区域,确定所述用户确认所述触发区域。
10.根据权利要求9所述的方法,其中,所述捕捉所述用户的眼睛的焦点,包括:
利用所述播放设备的摄像头向所述眼睛发射光束;
利用所述播放设备的屏幕上的感光材料感应从所述眼睛反射的光束强度;
基于光束强度确定所述屏幕上的暗点,作为所述焦点。
11.一种视频处理方法,包括:
对视频流进行物品识别,确定所述视频流的出现物品;
获取所述出现物品的标识信息;
将所述出现物品的标识信息添加到对应的视频帧协议中,生成视频数据。
12.根据权利要求11所述的方法,其中,所述获取所述出现物品的标识信息,包括:
对所述视频流进行位置识别,确定所述出现物品的坐标信息;
将所述出现物品的坐标信息添加到所述出现物品的标识信息中。
13.根据权利要求12所述的方法,其中,所述对所述视频流进行位置识别,确定所述出现物品的坐标信息,包括:
在试播设备上模拟试播所述视频流;
对所述视频流进行位置识别,得到所述出现物品的点阵坐标;
基于所述出现物品的点阵坐标,确定所述出现物品的坐标信息。
14.根据权利要求13所述的方法,其中,所述基于所述出现物品的点阵坐标,确定所述出现物品的坐标信息,包括:
将所述出现物品的点阵坐标的水平坐标值和垂直坐标值与所述试播设备的分辨率的水平像素值和垂直像素值对应相除,得到所述出现物品的百分比坐标。
15.根据权利要求12所述的方法,其中,对于所述视频流中的连续视频帧的出现物品,添加到首次出现物品的视频帧协议中的标识信息包括物品名称、坐标信息、简要信息和/或网页链接,添加到非首次出现物品的视频帧协议的标识信息包括物品名称和坐标信息。
16.根据权利要求11-15之一所述的方法,其中,所述将所述出现物品的标识信息添加到对应的视频帧协议中,包括:
基于所述出现物品的标识信息扩展对应的视频帧协议的网络抽象层信息。
17.一种计算机设备,包括:
一个或多个处理器;
存储装置,其上存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法,或者实现如权利要求11-16中任一所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-10中任一所述的方法,或者实现如权利要求11-16中任一所述的方法。
CN202010777098.7A 2020-08-05 2020-08-05 信息推送、视频处理方法和设备 Pending CN111859158A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010777098.7A CN111859158A (zh) 2020-08-05 2020-08-05 信息推送、视频处理方法和设备
PCT/CN2021/104450 WO2022028177A1 (zh) 2020-08-05 2021-07-05 信息推送、视频处理方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010777098.7A CN111859158A (zh) 2020-08-05 2020-08-05 信息推送、视频处理方法和设备

Publications (1)

Publication Number Publication Date
CN111859158A true CN111859158A (zh) 2020-10-30

Family

ID=72971071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010777098.7A Pending CN111859158A (zh) 2020-08-05 2020-08-05 信息推送、视频处理方法和设备

Country Status (2)

Country Link
CN (1) CN111859158A (zh)
WO (1) WO2022028177A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022028177A1 (zh) * 2020-08-05 2022-02-10 上海连尚网络科技有限公司 信息推送、视频处理方法和设备
CN114742576A (zh) * 2022-03-17 2022-07-12 北京有竹居网络技术有限公司 信息推送方法、装置和电子设备
CN115334346A (zh) * 2022-08-08 2022-11-11 北京达佳互联信息技术有限公司 界面显示方法、视频发布方法、视频编辑方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102591553A (zh) * 2011-01-13 2012-07-18 京宏科技股份有限公司 视讯互动方法系统及装置和视讯关联卷标产生装置及方法
US20150193446A1 (en) * 2014-01-07 2015-07-09 Microsoft Corporation Point(s) of interest exposure through visual interface
CN105100944A (zh) * 2014-04-30 2015-11-25 广州市动景计算机科技有限公司 一种物品信息的输出方法及装置
CN107704076A (zh) * 2017-09-01 2018-02-16 广景视睿科技(深圳)有限公司 一种动向投影物体展示系统及其方法
CN109120954A (zh) * 2018-09-30 2019-01-01 武汉斗鱼网络科技有限公司 视频消息推送方法、装置、计算机设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103021432B (zh) * 2011-09-22 2017-06-16 南京中兴软件有限责任公司 一种处理广告的方法和终端
CN110288400A (zh) * 2019-06-25 2019-09-27 联想(北京)有限公司 信息处理方法、信息处理装置以及信息处理系统
CN111859158A (zh) * 2020-08-05 2020-10-30 上海连尚网络科技有限公司 信息推送、视频处理方法和设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102591553A (zh) * 2011-01-13 2012-07-18 京宏科技股份有限公司 视讯互动方法系统及装置和视讯关联卷标产生装置及方法
US20150193446A1 (en) * 2014-01-07 2015-07-09 Microsoft Corporation Point(s) of interest exposure through visual interface
CN105100944A (zh) * 2014-04-30 2015-11-25 广州市动景计算机科技有限公司 一种物品信息的输出方法及装置
CN107704076A (zh) * 2017-09-01 2018-02-16 广景视睿科技(深圳)有限公司 一种动向投影物体展示系统及其方法
CN109120954A (zh) * 2018-09-30 2019-01-01 武汉斗鱼网络科技有限公司 视频消息推送方法、装置、计算机设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022028177A1 (zh) * 2020-08-05 2022-02-10 上海连尚网络科技有限公司 信息推送、视频处理方法和设备
CN114742576A (zh) * 2022-03-17 2022-07-12 北京有竹居网络技术有限公司 信息推送方法、装置和电子设备
CN114742576B (zh) * 2022-03-17 2024-05-31 北京有竹居网络技术有限公司 信息推送方法、装置和电子设备
CN115334346A (zh) * 2022-08-08 2022-11-11 北京达佳互联信息技术有限公司 界面显示方法、视频发布方法、视频编辑方法及装置

Also Published As

Publication number Publication date
WO2022028177A1 (zh) 2022-02-10

Similar Documents

Publication Publication Date Title
CN111859158A (zh) 信息推送、视频处理方法和设备
US11023716B2 (en) Method and device for generating stickers
US20160210284A1 (en) System and method for capturing a multimedia content item by a mobile device and matching sequentially relevant content to the multimedia content item
US8170392B2 (en) Method and apparatus for generation, distribution and display of interactive video content
US20130227023A1 (en) System and method for profiling users interest based on multimedia content analysis
US20190045269A1 (en) Communication apparatus, communication control method, and computer program
CN112261424A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN108235004B (zh) 视频播放性能测试方法、装置和系统
US10999640B2 (en) Automatic embedding of information associated with video content
CN109446442B (zh) 用于处理信息的方法和装置
US20170132267A1 (en) Pushing system and method based on natural information recognition, and a client end
CN111209431A (zh) 一种视频搜索方法、装置、设备及介质
CN112153422B (zh) 视频融合方法和设备
CN109413056B (zh) 用于处理信息的方法和装置
CN111726675A (zh) 对象的信息显示方法、装置、电子设备及计算机存储介质
CN113596496A (zh) 虚拟直播间的交互控制方法、装置、介质及电子设备
CN111246196B (zh) 视频处理方法、装置、电子设备及计算机可读存储介质
CN109241344B (zh) 用于处理信息的方法和装置
CN109919220B (zh) 用于生成视频的特征向量的方法和装置
US9646005B2 (en) System and method for creating a database of multimedia content elements assigned to users
CN111784478A (zh) 用于物品比价的方法和设备
CN110673886A (zh) 用于生成热力图的方法和装置
CN110442806B (zh) 用于识别图像的方法和装置
CN112308950A (zh) 视频生成方法及装置
CN113298589A (zh) 商品信息处理方法及装置、信息获取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination