CN108024134A - 一种基于直播的数据分析方法、装置和终端设备 - Google Patents

一种基于直播的数据分析方法、装置和终端设备 Download PDF

Info

Publication number
CN108024134A
CN108024134A CN201711092314.9A CN201711092314A CN108024134A CN 108024134 A CN108024134 A CN 108024134A CN 201711092314 A CN201711092314 A CN 201711092314A CN 108024134 A CN108024134 A CN 108024134A
Authority
CN
China
Prior art keywords
user
feature
animation
destination
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711092314.9A
Other languages
English (en)
Other versions
CN108024134B (zh
Inventor
谢纨楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Environment And Wind Technology Co Ltd
Original Assignee
Beijing Environment And Wind Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Environment And Wind Technology Co Ltd filed Critical Beijing Environment And Wind Technology Co Ltd
Priority to CN201711092314.9A priority Critical patent/CN108024134B/zh
Publication of CN108024134A publication Critical patent/CN108024134A/zh
Application granted granted Critical
Publication of CN108024134B publication Critical patent/CN108024134B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Abstract

本发明公开了一种基于直播的数据分析方法、装置和终端设备,其中,所述方法包括:根据第一用户操作,生成第一目标对象动画并在显示区域进行展示;获取显示区域中与第二用户相关的第二目标对象的位置和动作;当第二目标对象的位置与第一目标对象的位置满足第一预设条件,且第二目标对象的动作满足第二预设条件时,将所述第一目标对象对应的标的物发送至所述第二用户账户;从而增加直播过程中观看直播用户和进行直播用户的互动性。

Description

一种基于直播的数据分析方法、装置和终端设备
技术领域
本发明涉及互联网技术领域,具体涉及一种基于直播的数据分析方法、 一种基于直播的数据分析装置和一种终端设备。
背景技术
随着互联网技术的不断发展,网络带宽的增大,为用户使用网络提供了 等多的便利性,也新生了许多基于互联网的产业,如网络直播、网络购物等。
其中,网络直播是一种新兴的网络社交方式,可以通过网络直播用户同 一时间透过网络系统在不同的交流平台观看视频,网络直播平台也成为了一 种崭新的社交媒体。随着直播技术日益成熟,越来越多的直播节目开始涌入 如游戏直播、美食直播、歌唱直播等等。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分 地解决上述问题的基于直播的数据分析方法、基于直播的数据分析装置和相 应的终端设备,以提高直播的互动性。
依据本发明的一个方面,提供了一种基于直播的数据分析方法,应用于 直播系统,所述的方法包括:根据第一用户操作,生成第一目标对象动画并 在显示区域进行展示;获取显示区域中与第二用户相关的第二目标对象的位 置和动作;当第二目标对象的位置与第一目标对象的位置满足第一预设条 件,且第二目标对象的动作满足第二预设条件时,将所述第一目标对象对应 的标的物发送至所述第二用户账户。
可选地,所述依据第一用户操作,生成第一目标对象动画,包括:获取 第一用户操作,依据所述操作确定第一目标对象和对应的发射方向;依据所 述第一目标对象和对应的发射方向,生成第一目标对象动画。
可选地,所述依据所述第一目标对象和对应的发射方向,生成第一目标 对象动画,包括:依据所述第一目标对象和对应的发射方向,采用动画引擎 生成第一目标对象动画;
其中,所述动画引擎包括:3D动画引擎和2D动画引擎。
可选地,所述动画引擎依据所述显示区域中的显示内容调整所述第一目 标对象的运动轨迹。
可选地,所述获取显示区域中与第二用户相关的第二目标对象的位置和 动作,包括:获取第二用户的直播视频数据,从所述直播视频数据中提取各 帧直播图像;对所述各帧直播图像分别进行图像识别,确定各帧直播图像的 显示区域中与第二用户相关的第二目标对象的特征;依据各帧直播图像对应 第二目标对象的特征,确定对应的第二目标对象的位置和动作。
可选地,所述对所述各帧直播图像分别进行图像识别,确定各帧直播图 像中与第二用户相关的第二目标对象的特征,包括:
通过对各帧直播图像进行人脸识别,确定各帧直播图像的显示区域中用 户的五官特征和/或面部轮廓特征;和/或,通过对各帧直播图像进行用户识 别,确定各帧直播图像的显示区域中用户的肢体特征;将所述五官特征,和 /或,面部轮廓特征,和/或,肢体特征确定为第二目标对象的特征。
可选地,所述五官特征包括:五官位置特征和五官动作特征,所述面部 轮廓特征包括:面部轮廓位置特征,所述肢体特征包括:手部特征和足部特 征,所述手部特征包括:手部位置特征和手部动作特征,所述足部特征包括: 足部位置特征和部动作特征。
可选地,还包括:判断所述第二目标对象的位置与第一目标对象的位置 是否匹配;若所述第二目标对象的位置与第一目标对象的位置匹配,确定所 述第二目标对象的位置与第一目标对象的位置满足第一预设条件。
可选地,还包括:判断所述第二目标对象的动作是否是预设动作;若所 述第二目标对象的动作是预设动作,则确定所述第二目标对象的动作满足第 二预设条件。
根据本发明的另一方面,提供了一种基于直播的数据分析装置,包括: 数据生成模块,用于根据第一用户操作,生成第一目标对象动画并在显示区 域进行展示;数据获取模块,用于获取显示区域中与第二用户相关的第二目 标对象的位置和动作;对象发送模块,用于当第二目标对象的位置与第一目 标对象的位置满足第一预设条件,且第二目标对象的动作满足第二预设条件 时,将所述第一目标对象对应的标的物发送至所述第二用户账户。
可选地,所述数据生成模块包括:信息获取子模块,用于获取第一用户 操作,依据所述操作确定第一目标对象和对应的发射方向;动画生成子模块, 用于依据所述第一目标对象和对应的发射方向,生成第一目标对象动画。
可选地,所述动画生成子模块,具体依据所述第一目标对象和对应的发 射方向,采用动画引擎生成第一目标对象动画;其中,所述动画引擎包括: 3D动画引擎和2D动画引擎。
可选地,所述动画引擎依据所述显示区域中的显示内容调整所述第一目 标对象的运动轨迹。
可选地,所述数据获取模块包括:图像提取子模块,用于获取第二用户 的直播视频数据,从所述直播视频数据中提取各帧直播图像;图像识别子模 块,用于对所述各帧直播图像分别进行图像识别,确定各帧直播图像的显示 区域中与第二用户相关的第二目标对象的特征;数据确定子模块,用于依据 各帧直播图像对应第二目标对象的特征,确定对应的第二目标对象的位置和 动作。
可选地,所述图像识别子模块,具体用于通过对各帧直播图像进行人脸 识别,确定各帧直播图像的显示区域中五官特征和/或面部轮廓特征;和/或, 通过对各帧直播图像进行用户识别,确定各帧直播图像的显示区域中用户的 肢体特征;将所述五官特征,和/或,面部轮廓特征,和/或,肢体特征确定 为第二目标对象的特征。
可选地,所述五官特征包括:五官位置特征和五官动作特征,所述面部 特征包括:面部轮廓位置特征,所述肢体特征包括:手部特征和足部特征, 所述手部特征包括:手部位置特征和手部动作特征,所述足部特征包括:足 部位置特征和部动作特征。
可选地,还包括:位置判断模块,用于判断所述第二目标对象的位置与 第一目标对象的位置是否匹配;若所述第二目标对象的位置与第一目标对象 的位置匹配,确定所述第二目标对象的位置与第一目标对象的位置满足第一 预设条件。
可选地,还包括:动作判断模块,用于判断所述第二目标对象的动作是 否是预设动作;若所述第二目标对象的动作是预设动作,则确定所述第二目 标对象的动作满足第二预设条件。
根据本发明的另一方面,提供了一种终端设备,包括:一个或多个处理 器;和其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处 理器执行时,使得所述终端设备执行如本发明实施例中一个或多个所述的基 于直播的数据分析方法。
根据本发明的另一方面,提供了一个或多个机器可读介质,其上存储有 指令,当由一个或多个处理器执行时,使得终端设备执行如本发明实施例中 一个或多个所述的基于直播的数据分析方法。
根据本发明的一种基于直播的数据分析方法,可以在直播互动的过程 中,根据第一用户操作生成第一目标对象动画并在显示区域展示,使得第二 用户能够观看到所述第一目标对象动画,然后根据第一目标对象动画中第一 目标对象的位置,调整与第二用户相关的第二目标对象的位置和动作,以接 收第一目标对象;进而可获取显示区域中与第二用户相关的第二目标对象的 位置和动作,以判断第二用户是否成功接收第一目标对象,当第二目标对象 的位置与第一目标对象的位置满足第一预设条件,且第二目标对象的动作满足第二预设条件时,可确定第二用户成功领取第一目标对象,则将所述第一 目标对象对应的标的物发送至所述第二用户账户。由此解决了直播的互动性 差的问题,取得了增加直播过程中观看直播用户和进行直播用户的互动性的 有益效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技 术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它 目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本 领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的, 而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示 相同的部件。在附图中:
图1示出了本发明一个实施例的一种直播的数据分析方法的步骤流程 图;
图2示出了本发明另一个实施例的一种直播的数据分析方法的步骤流程 图;
图3示出了本发明一个实施例的一种直播的数据分析装置的结构框图;
图4示出了本发明另一个实施例的一种直播的数据分析装置的结构框 图;
图5示出的是与本发明实施例提供的终端设备相关的部分结构的框图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示 了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不 应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地 理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
本发明实施例可应用于直播系统,该直播系统包括服务器(集群)和终 端设备,其中,服务器是为直播提供服务的服务器,可以由多个服务器构成 的集群组成,例如通过不同的服务器提供直播管理、数据合成等服务。直播 系统中可以具有多个终端设备,其中包括执行直播的终端设备,也包括观看 直播的终端设备。本申请实施例中,可以针对每个直播视频设置直播群组或 称直播间,该直播间中可以有一个或多个终端设备连接观看该直播视频,从 而每个直播间通过直播间ID或直播标识表征。
其中,将观看直播的用户称为第一用户(即观众),将进行直播的用户 称为第二用户(即该直播的主播)。直播过程中,主播端即第二用户的终端 设备可采集视频数据上传给服务器,服务器依据该视频数据生成直播视频 流,反馈给观看端即第一用户的终端设备,并且也会反馈给主播端进行显示, 从而便于主播和观众互动。
参照图1,示出了本发明一个实施例的一种直播的数据分析方法的步骤 流程图。
步骤102、根据第一用户操作,生成第一目标对象动画并在显示区域进 行展示。
第一用户在观看直播视频的过程中,若觉得主播比较有趣,直播比较好 等,可以打赏主播,也可与主播互动。本发明实施例提供了一种互动方式, 第一用户可以在直播视频中基于动画发射物品,相应主播可以接取该物品, 类似于第一用户(观众)发射足球,第二用户(主播)守门,或者第一用户 (观众)扔球,第二用户(主播)接球等。
因此第一用户可以选择执行的互动,确定相应的第一目标对象,如第一 目标对象通过水果、球类等显示,并且第一用户可以确定该第一目标对象的 发射方向等。即第一用户可以对互动的执行进行指示,第一用户在选择执行 互动后,可反馈性能可配置的发射工具给用户,当然这个也可以直接设置在 屏幕上,用户选择即可。其中,所述性能包括发射工具的基本属性如大小、 颜色等,还包括发射工具的使用属性如发射方向、发射力度等。
从而第一用户根据需求配置发射工具,以及选择发射的物品等操作后; 可从第一用户操作中获取互动指示,所述互动指示用于指示执行互动,其携 带参数可包括互动配置信息,如发射方向、第一目标对象等,其中,若互动 为打赏的互动,则该互动配置信息还可包括互动的标的物,所述标的物是基 于第一目标对象转换的数据,如金额、鲜花、鲜花对应的转换金额等等。然 后再依据所述互动指示生成第一目标对象动画,例如依据互动配置信息中的 第一目标对象的颜色、发射方向、发射力度等信息,生成相应的动画。本发 明实施例中,第一目标对象是发射工具的发射物,其可与发射工具是配套的, 例如发射工具是大炮,则预设目标可以是炮弹,又例如发射工具是泡泡机, 则预设目标可以是泡泡等等。生成第一目标对象动画后,可在对应的终端设 备中展示该动画,即可获取该动画的显示信息,依据所述显示信息确定该动 画的显示区域,进而在显示区域展示该动画;其中,所述展示该动画的终端 可包括第一用户的终端设备和第二用户的终端设备,所述显示信息可预先按 照需求设置,例如将显示界面的左上角四分之一区域确定为显示区域,则这 四分之一区域的尺寸信息和位置信息设置为显示信息。
步骤104、获取显示区域中与第二用户相关的第二目标对象的位置和动 作。
第一目标对象动画在显示区域展示后,主播可通过对应的终端设备观看 到该动画,相应的,主播针对该动画也可执行相应的动作来互动,如守门、 接球等;因此在主播执行互动的过程中,主播的肢体会随着第一目标对象动 画中第一目标对象的移动而移动,当主播接收到第一目标对象后,观众和主 播的互动可视为成功,主播即可获得第一目标对象对应的标的物。进而在显 示区域展示第一目标对象动画后,可获取显示区域中与第二用户相关的第二 目标对象的动作数据,所述动作数据可包括位置和动作,以依据所述动作数据判断互动是否成功;其中,第二用户可用其自身的多个部位执行互动,如 嘴、手等等,因此所述第二目标对象可以是第二用户用于执行互动的身体部 位如嘴、手等。
其中,第二用户的直播视频数据是通过录制第二用户生成的,因此可通 过对第二用户的直播视频数据的分析,获取显示区域中第二目标对象的位置 和动作,当第二目标对象的位置和动作满足对应的条件时,可确定第二用户 接收到第一目标对象,即可确定互动成功。具体的,可判断第二目标对象的 位置与第一目标对象的位置是否满足第一预设条件,且第二目标对象的动作 是否满足第二预设条件,若第二目标对象的位置与第一目标对象的位置满足 第一预设条件,且第二目标对象的动作满足第二预设条件,则可确定第二用户成功接收到第一目标对象,即互动成功,可执行步骤106;若第二目标对 象的位置与第一目标对象的位置不满足第一预设条件,或第二目标对象的动 作不满足第二预设条件,则可确定第二用户未成功接收到第一目标对象,即 互动失败,可继续执行结束的步骤。其中,所述第一预设条件是位置条件, 可按需求设置,例如两个对象位置重合;所述第二预设条件为动作条件,也 可按照需求设置,如用户动作为预设动作。
步骤106、当第二目标对象的位置与第一目标对象的位置满足第一预设 条件,且第二目标对象的动作满足第二预设条件时,将所述第一目标对象对 应的标的物发送至所述第二用户账户。
当第二目标对象的位置与第一目标对象的位置满足第一预设条件,且第 二目标对象的动作满足第二预设条件时,可确定第二用户成功接收第一目标 对象,即互动成功,此时可将所述第一目标对象对应的标的物发送至所述第 二用户账户;例如,第一目标对象为金额,可将对应的金额存入第二用户的 账户,又如第一目标对象为游艇,则将游艇存入第二用户的账户。当然也可 以将第一目标对象对应标的物对等的价值的金额,存入第二用户的账户,在 此不作限制。
上述步骤102-步骤106,可由终端设备执行,也可由终端设备和服务器 结合执行,可按照需求设置。
综上所述,本发明实施例可以在直播互动的过程中,根据第一用户操作 生成第一目标对象动画并在显示区域展示,使得第二用户能够观看到所述第 一目标对象动画,然后根据第一目标对象动画中第一目标对象的位置,调整 与第二用户相关的第二目标对象的位置和动作,以接收第一目标对象;进而 可获取显示区域中与第二用户相关的第二目标对象的位置和动作,以判断第 二用户是否成功接收第一目标对象,当第二目标对象的位置与第一目标对象 的位置满足第一预设条件,且第二目标对象的动作满足第二预设条件时,可确定第二用户成功领取第一目标对象,则将所述第一目标对象对应的标的物 发送至所述第二用户账户。由此解决了直播的互动性差的问题,取得了增加 直播过程中观看直播用户和进行直播用户的互动性的有益效果。
本发明的另一个实施例中,同一直播间中,可以有多个观众同时执行互 动,即可以同时展示多个第一目标对象动画,对应的,主播可观看到多个第 一目标对象动画,然后可针对其中一个或几个第一目标对象动画执行互动。 在针对其中一个第一目标对象动画执行互动时,可选择不同的第二目标对象 进行,例如,第一目标对象为水果时,可用嘴咬苹果,也可用手抓苹果;针 对其中多个第一目标对象动画执行互动时,可同时采用多个不同的第二目标 对象进行,如一个动画中第一目标对象为水果,一个动画中第一目标对象为足球,则主播可以用嘴咬苹果,同时用手接球。
参照图2,示出了本发明另一个实施例的一种基于直播的数据分析方法 的步骤流程图。
步骤202、获取第一用户操作,依据所述操作确定第一目标对象和对应 的发射方向。
步骤204、依据所述第一目标对象和对应的发射方向,生成第一目标对 象动画。
第一用户在观看直播视频的过程中,若觉得主播比较有趣,直播比较好 等,可以打赏主播,也可与主播互动。本发明实施例提供了一种互动方式, 第一用户可以在直播视频中基于动画发射物品,相应主播可以接取该物品, 类似于第一用户(观众)发射足球,第二用户(主播)守门,或者第一用户 (观众)扔球,第二用户(主播)接球等。
第一用户在选择执行互动后,可反馈性能可配置的发射工具给第一用 户,第一用户可按照需求选择发射工具,所述发射工具和发射物是配套的, 即确定了第一目标对象如球、水果、泡泡等;还可对发射工具的性能进行配 置,包括配置发射工具的基本属性如大小、颜色等,还包括配置发射工具的 使用属性如发射方向、发射力度等;以及选择用户互动的标的物,如金币、 玫瑰、钻石等等。进而可获取第一用户操作,从第一用户操作中获取互动指 示,所述互动指示携带的参数包括第一目标对象和第一目标对象的发射方 向;因此可从互动指示中获取第一目标对象和第一目标对象的发射方向,依 据所述第一目标对象和第一目标对象的发射方向,生成对应的第一目标对象 动画。本发明实施例可基于动画引擎生成每帧动画,所述动画引擎包括:3D 动画引擎和2D动画引擎,其中,基于3D动画引擎生成每帧动画即按照发 射工具的形状尺寸和第一目标对象的运动轨迹数据建立模型以及场景,再根 据要求设定模型的运动轨迹、虚拟摄影机的运动和其它动画参数,最后按要 求为模型赋上特定的材质,并打上灯光;当这一切完成后就生成每帧动画数 据;进而使得动画中的各物体更加立体,提高用户视觉效果。
其中,同一时间内可能会有多个第一用户都在进行互动,即展示的第一 目标对象动画可能有多个,因此,每个第一目标对象动画中第一目标对象在 移动的过程中,可能会碰撞到其他的第一目标对象、显示界面边缘等,使得 第一目标对象的运动轨迹会发生变化;因此所述第一目标对象的运动轨迹除 了依据第一目标对象的发射方向确定外,还可采用动画引擎依据所述显示区 域中的显示内容即其他第一目标对象动画,调整所述第一目标对象的运动轨 迹。具体的,可先采用动画引擎,依据第一目标对象的发射方向,确定第一目标对象的原始运动轨迹,待检测到所述第一目标对象与其他对象相碰撞 时,再采用动画引擎对第一目标对象的原始运动轨迹进行调整,进而生成对 应的第一目标对象动画。
本发明实施例中,所述互动指示携带的参数当然还可以包括其他的参 数,如发射力度、动画效果类型等;进而在生成第一目标对象动画时,可依 据所述第一目标对象、对应的发射方向和其他数据,共同生成对应的动画, 以使得采用发射工具发射第一目标对象的动画更加个性化。
主播可通过对应的终端设备观看到第一目标对象动画,相应的,主播也 可执行相应的动作来互动,如守门、接球等,其中,第二用户执行互动的方 式有多种,例如采用肢体如手接球、采用嘴接球等等,即第二目标对象可以 包括多种如嘴部、手部、足部等等。本发明实施例为减少误判率,以及提高 直播的互动性,不仅需要判断第二目标对象的位置和第一目标对象的位置是 否满足对应的互动条件,即第一预设条件,且还需要判断第二目标对象的动 作是否满足对应的互动条件,即第一预设条件;因此可获取显示区域中与第 二用户相关的第二目标对象的位置和动作,以判断主播与观众的互动是否成 功,具体如下:
步骤206、获取第二用户的直播视频数据,从所述直播视频数据中提取 各帧直播图像。
步骤208、对所述各帧直播图像分别进行图像识别,确定各帧直播图像 的显示区域中与第二用户相关的第二目标对象的特征。
步骤210、依据各帧直播图像对应第二目标对象的特征,确定对应的第 二目标对象的位置和动作。
其中,第二用户的直播视频数据各直播图像中,记录着各时刻第二用户 执行互动时,对应第二目标对象的位置和动作;因此可获取第二用户的直播 视频数据,再从所述直播视频数据中提取对应各帧直播图像,其中,可从所 述播视频数据中提取每帧图像数据,也可按照预设间隔从所述直播视频数据 中提取对应帧的图像数据。然后再对各帧图像数据进行图像识别,确定各帧 直播图像的显示区域中与第二用户相关的第二目标对象的特征,再依据所述 第二目标对象的特征,确定第二目标对象的位置和动作。其中,所述第二目标对象可包括用户的五官,和/或,面部轮廓,和/或,用户的肢体,则所述 第二目标对象的特征包括五官特征,和/或,面部轮廓特征,和/或,肢体特 征,因此确定第二目标对象的特征可包括如下至少一种方式:
1、通过对各帧直播图像进行人脸识别,确定各帧直播图像的显示区域 中用户的五官特征和/或面部轮廓特征,所述五官特征包括:五官位置特征和 五官动作特征,所述面部轮廓特征包括:面部轮廓位置特征。即对直播图像 进行人脸识别,可确定显示区域中第二用户的五官的位置和对应的动作,所 述五官包括:眉、眼、耳鼻和口;以及确定显示区域中第二用户的面部轮廓 的位置特征。
2、通过对各帧直播图像进行用户识别,确定各帧直播图像的显示区域 中用户的肢体特征。对直播图像进行用户识别,确定显示区域中用户肢体的 位置和肢体的动作,所述肢体包括手部和足部,所述肢体特征可包括:手部 特征和足部特征,所述手部特征包括:手部位置特征和手部动作特征,所述 足部特征包括:足部位置特征和部动作特征。
步骤212、判断所述第二目标对象的位置与第一目标对象的位置是否匹 配。
其中,可通过判断所述第二目标对象的位置与第一目标对象的位置是否 匹配,来判断第二目标对象的位置和第一目标对象的位置是否满足第一预设 条件;例如,若第二目标对象为五官中的口,则判断第二用户的口的位置与 第一目标对象的位置是否匹配;若第二目标对象为面部轮廓,可确定第一目 标对象的位置是否与第二用户脸的位置是否匹配;若第二目标对象为手部, 可判断第一目标对象是否与第二用户的手的位置匹配,等等。若所述第二目 标对象的位置与第一目标对象的位置匹配,确定第二目标对象的位置和第一目标对象的位置满足第一条件,可执行步骤214,若所述第二目标对象的位 置与第一目标对象的位置不匹配,确定第二目标对象的位置和第一目标对象 的位置不满足第一条件,可执行结束的步骤;当然也可判断互动时间是否超 时,若未超时,可继续获取显示区域中第二目标对象的动作和位置,以再次 判断所述第二目标对象的位置与第一目标对象的位置是否匹配。其中,可判 断第一目标对象与第二目标对象重合区域,占第一目标对象对应区域的百分 比,若该百分比大于阈值,可确定第一目标对象的位置与第二目标对象的位 置匹配。
步骤214、判断所述第二目标对象的动作是否是预设动作。
其中,可通过判断所述第二目标对象的动作是否是预设动作,来判断第 二目标对象的动作是否满足第二预设条件;所述预设动作可预先按照需求设 定,例如,若第二目标对象为口,预设动作可以是口咬球时的动作,又如, 若第二目标对象为眼,预设动作可以是眼睁开的动作,还如,若第二目标对 象为手部,预设动作可以是手抓球时的动作,等等。若所述第二目标对象的 动作是预设动作,则确定第二目标对象的动作满足第二预设条件,可执行步 骤216;若所述第二目标对象的动作不是预设动作,则确定第二目标对象的 动作不满足第二预设条件,则可执行结束的步骤,当然也可判断互动时间是 否超时,若未超时,可继续获取显示区域中第二目标对象的动作和位置,以 再次判断所述第二目标对象的动作是否是预设动作。
此外,若所述第二目标对象为面部轮廓,可确定所述第二目标对象的动 作始终满足第二预设条件。
本发明实施例不对步骤212和步骤214的执行顺序进行限定,即可先判 断述第二目标对象的位置与第一目标对象的位置是否匹配,也可先判断所述 第二目标对象的动作是否是预设动作;当然也可同时进行判断。
步骤216、将所述第一目标对象对应的标的物发送至所述第二用户账户。
在第二目标对象的位置与第一目标对象的位置满足第一预设条件,且第 二目标对象的动作满足第二预设条件后,可将所述第二目标对象对应的标的 物发送给所述第二用户账户。
本发明的一个示例中,用户A正在直播唱歌视频的过程中,用户B进 入用户A的直播间,并在观看该唱歌视频后决定给用户A送花;在给用户A 送花时,从该直播间提供的发射工具中选择了泡泡发射机,并将泡泡发射机 的发射方向设置为正对用户A的左肩膀,还选择了一朵玫瑰。在用户B点 击发射按钮后,则在用户A通过显示器观看到有泡泡发射机正在发射泡泡, 则确定有观看视频的用户给其打赏,然后根据显示器中泡泡发射机的发射方向,预测发射的泡泡的方向应该在左肩膀附近,并张嘴去接收该泡泡。在泡 泡消失之前,确定用户A的嘴部与泡泡重叠了,且重叠是嘴部是处于张开状 态,则确定用户A成功接收到了泡泡,然后将对应的玫瑰送给用户A,进而 用户A成功的领取了用户打赏的玫瑰,此时系统可通知用户A告诉用户A 领取了用户B的玫瑰花,以及通知用户B成功送给用户A玫瑰。
综上,本发明实施例在第一用户给第二用户打赏后,根据第一用户操作 生成第一目标对象动画并在显示区域展示,使得第二用户能够观看到所述第 一目标对象动画,然后根据第一目标对象动画中第一目标对象的位置,调整 与第二用户相关的第二目标对象的位置和动作,以接收第一目标对象;进而 可获取显示区域中与第二用户相关的第二目标对象的位置和动作,以判断第 二用户是否成功接收第一目标对象,当第二目标对象的位置与第一目标对象 的位置满足第一预设条件,且第二目标对象的动作满足第二预设条件时,可确定第二用户成功领取第一目标对象,则将所述第一目标对象对应的标的物 发送至所述第二用户账户;进而提高了第一用户和第二用户的互动性。
其次,在判断第二用户是否成功接收到第一目标对象时,判断所述第二 目标对象的位置与第一目标对象的位置是否匹配,以及判断所述第二目标对 象的动作是否是预设动作,提高了判断互动是否成功的准确性,降低给第二 用户发送目标对象的失误率。此外,所述第二目标对象的特征包括五官特征、 面部轮廓特征、肢体特征,所述五官特征包括:五官位置特征和五官动作特 征,所述面部轮廓特征包括:面部轮廓位置特征,所述肢体特征包括:手部 特征和足部特征,所述手部特征包括:手部位置特征和手部动作特征,所述 足部特征包括:足部位置特征和部动作特征;即用户可通过嘴部、手部和足 部实现接收动画数据对应预设目标,提高了直播过程中互动的趣味性。
再次,本发明实施例可依据所述第一目标对象和对应的发射方向,采用 3D动画引擎生成第一目标对象动画,使得动画效果更加逼真、炫酷,提高 用户的视觉效果。
对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合, 但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限 制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其 次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施 例,所涉及的动作并不一定是本发明实施例所必须的。
本发明实施例还提供了一种基于直播的数据分析装置,应用于终端设 备。
参照图3,示出了本发明一个实施例的一种基于直播的数据分析装置的 结构框图;所述装置包括:数据生成模块31、数据获取模块32和对象发送 模块33,其中,
数据生成模块31,用于根据第一用户操作,生成第一目标对象动画并在 显示区域进行展示;
数据获取模块32,用于获取显示区域中与第二用户相关的第二目标对象 的位置和动作;
对象发送模块33,用于当第二目标对象的位置与第一目标对象的位置满 足第一预设条件,且第二目标对象的动作满足第二预设条件时,将所述第一 目标对象对应的标的物发送至所述第二用户账户。
综上,本发明实施例在直播互动的过程中,根据第一用户操作生成第一 目标对象动画并在显示区域展示,使得第二用户能够观看到所述第一目标对 象动画,然后根据第一目标对象动画中第一目标对象的位置,调整与第二用 户相关的第二目标对象的位置和动作,以接收第一目标对象;进而可获取显 示区域中与第二用户相关的第二目标对象的位置和动作,以判断第二用户是 否成功接收第一目标对象,当第二目标对象的位置与第一目标对象的位置满 足第一预设条件,且第二目标对象的动作满足第二预设条件时,可确定第二用户成功领取第一目标对象,则将所述第一目标对象对应的标的物发送至所 述第二用户账户。由此解决了直播的互动性差的问题,取得了增加直播过程 中观看直播用户和进行直播用户的互动性的有益效果。
参照图4,示出了本发明另一个实施例的一种直播的数据分析的结构框 图。
其中,所述装置还包括:位置判断模块34和动作判断模块35,其中,
位置判断模块34,用于判断所述第二目标对象的位置与第一目标对象的 位置是否匹配;若所述第二目标对象的位置与第一目标对象的位置匹配,确 定所述第二目标对象的位置与第一目标对象的位置满足第一预设条件。
动作判断模块35,用于判断所述第二目标对象的动作是否是预设动作; 若所述第二目标对象的动作是预设动作,则确定所述第二目标对象的动作满 足第二预设条件。
本发明的另一个实施例中,所述数据生成模块31包括:信息获取子模 块311和动画生成子模块312,其中,
信息获取子模块311,用于获取第一用户操作,依据所述操作确定第一 目标对象和对应的发射方向;
动画生成子模块312,用于依据所述第一目标对象和对应的发射方向, 生成第一目标对象动画。
本发明的另一个实施例中,所述动画生成子模块312,具体依据所述第 一目标对象和对应的发射方向,采用动画引擎生成第一目标对象动画;其中, 所述动画引擎包括:3D动画引擎和2D动画引擎。
本发明的另一个实施例中,所述动画引擎依据所述显示区域中的显示内 容调整所述第一目标对象的运动轨迹。
本发明的另一个实施例中,所述数据获取模块32包括:图像提取子模 块321、图像识别子模块322和数据确定子模块323,其中,
图像提取子模块321,用于获取第二用户的直播视频数据,从所述直播 视频数据中提取各帧直播图像;
图像识别子模块322,用于对所述各帧直播图像分别进行图像识别,确 定各帧直播图像的显示区域中与第二用户相关的第二目标对象的特征;
数据确定子模块323,用于依据各帧直播图像对应第二目标对象的特征, 确定对应的第二目标对象的位置和动作。
其中,所述图像识别子模块322,具体用于通过对各帧直播图像进行人 脸识别,确定各帧直播图像的显示区域中用户的五官特征和/或面部轮廓特 征;和/或,通过对各帧直播图像进行用户识别,确定各帧直播图像的显示区 域中用户的肢体特征;将所述五官特征,和/或,面部轮廓特征,和/或,肢 体特征确定为第二目标对象的特征。
本发明的另一个实施例中,所述五官特征包括:五官位置特征和五官动 作特征,所述面部轮廓特征包括:面部轮廓位置特征,所述肢体特征包括: 手部特征和足部特征,所述手部特征包括:手部位置特征和手部动作特征, 所述足部特征包括:足部位置特征和部动作特征。
综上,本发明实施例在第一用户给第二用户打赏后,根据第一用户操作 生成第一目标对象动画并在显示区域展示,使得第二用户能够观看到所述第 一目标对象动画,然后根据第一目标对象动画中第一目标对象的位置,调整 与第二用户相关的第二目标对象的位置和动作,以接收第一目标对象;进而 可获取显示区域中与第二用户相关的第二目标对象的位置和动作,以判断第 二用户是否成功接收第一目标对象,当第二目标对象的位置与第一目标对象 的位置满足第一预设条件,且第二目标对象的动作满足第二预设条件时,可确定第二用户成功领取第一目标对象,则将所述第一目标对象对应的标的物 发送至所述第二用户账户;进而提高了第一用户和第二用户的互动性。
其次在判断第二用户是否成功接收到第一目标对象时,判断所述第二目 标对象的位置与第一目标对象的位置是否匹配,以及判断所述第二目标对象 的动作是否是预设动作,提高了判断互动是否成功的准确性,降低给第二用 户发送目标对象的失误率。此外,所述第二目标对象的特征,所述用户特征 包括用户五官特征、面部轮廓特征、肢体特征,所述五官特征包括:五官位 置特征和五官动作特征,所述面部轮廓特征包括:面部轮廓位置特征,所述 肢体特征包括:手部特征和足部特征,所述手部特征包括:手部位置特征和 手部动作特征,所述足部特征包括:足部位置特征和部动作特征;即用户可 通过五官、面部、手部和足部实现接收动画数据对应预设目标,提高了直播 过程中互动的趣味性。
再次,本发明实施例可依据所述第一目标对象和对应的发射方向,采用 3D动画引擎生成第一目标对象动画,使得动画效果更加逼真、炫酷,提高 用户的视觉效果。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理 器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当 理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据 本发明实施例的终端设备中的一些或者全部部件的一些或者全部功能。本发 明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者 装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程 序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以 任何其他形式提供。
本发明实施例一个示例中还提供的终端设备,如图5所示,为了便于说 明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照 本发明实施例方法部分。该终端设备可以为包括手机、平板电脑、PDA (Personal Digital Assistant,个人数字助理)、POS(Point of Sales,销售设备)、 车载电脑等任意设备。
图5示出的是与本发明实施例提供的终端设备相关的部分结构的框图。 参考图5,终端设备包括:射频(Radio Frequency,RF)电路510、存储器 520、输入单元530、显示单元540、传感器550、音频电路560、无线保真 (wireless fidelity,WiFi)模块570、处理器580、电源590以及摄像头5110 等部件。本领域技术人员可以理解,图5中示出的终端设备结构并不构成对 终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件, 或者不同的部件布置。
下面结合图5对终端设备的各个构成部件进行具体的介绍:
RF电路510可用于收发信息或通话过程中,信号的接收和发送,特别 地,将基站的下行信息接收后,给处理器580处理;另外,将设计上行的数 据发送给基站。通常,RF电路510包括但不限于天线、至少一个放大器、 收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,LNA)、双工器 等。此外,RF电路510还可以通过无线通信与网络和其他设备通信。上述 无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobile communication,GSM)、通用分组无线服务 (General PacketRadio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access, WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息 服务(Short Messaging Service,SMS)等。
存储器520可用于存储软件程序以及模块,处理器580通过运行存储在 存储器520的软件程序以及模块,从而执行终端设备的各种功能应用以及数 据处理。存储器520可主要包括存储程序区和存储数据区,其中,存储程序 区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图 像播放功能等)等;存储数据区可存储根据终端设备的使用所创建的数据(比 如音频数据、电话本等)等。此外,存储器520可以包括高速随机存取存储 器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、 或其他易失性固态存储器件。
输入单元530可用于接收输入的数字或字符信息,以及产生与终端设备 的用户设置以及功能控制有关的键信号输入。具体地,输入单元530可包括 触控面板531以及其他输入设备532。触控面板531,也称为触摸屏,可收 集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物 体或附件在触控面板531上或在触控面板531附近的操作),并根据预先设 定的程式驱动相应的连接装置。可选的,触控面板531可包括触摸检测装置 和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测 触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装 置上接收触摸信息,并将它转换成触点坐标,再送给处理器580,并能接收 处理器580发来的命令并加以执行。此外,可以采用电阻式、电容式、红外 线以及表面声波等多种类型实现触控面板531。除了触控面板531,输入单 元530还可以包括其他输入设备532。具体地,其他输入设备532可以包括 但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、 鼠标、操作杆等中的一种或多种。
显示单元540可用于显示由用户输入的信息或提供给用户的信息以及终 端设备的各种菜单。显示单元540可包括显示面板541,可选的,可以采用 液晶显示器(LiquidCrystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板541。进一步的,触控 面板531可覆盖显示面板541,当触控面板531检测到在其上或附近的触摸 操作后,传送给处理器580以确定触摸事件的类型,随后处理器580根据触 摸事件的类型在显示面板541上提供相应的视觉输出。虽然在图5中,触控 面板531与显示面板541是作为两个独立的部件来实现终端设备的输入和输 入功能,但是在某些实施例中,可以将触控面板531与显示面板541集成而 实现终端设备的输入和输出功能。
终端设备还可包括至少一种传感器550,比如光传感器、运动传感器以 及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中, 环境光传感器可根据环境光线的明暗来调节显示面板541的亮度,接近传感 器可在终端设备移动到耳边时,关闭显示面板541和/或背光。作为运动传感 器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小, 静止时可检测出重力的大小及方向,可用于识别终端设备姿态的应用(比如 横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步 器、敲击)等;至于终端设备还可配置的陀螺仪、气压计、湿度计、温度计、 红外线传感器等其他传感器,在此不再赘述。
音频电路560、扬声器561,传声器562可提供用户与终端设备之间的 音频接口。音频电路560可将接收到的音频数据转换后的电信号,传输到扬 声器561,由扬声器561转换为声音信号输出;另一方面,传声器562将收 集的声音信号转换为电信号,由音频电路560接收后转换为音频数据,再将 音频数据输出处理器580处理后,经RF电路510以发送给比如另一终端设 备,或者将音频数据输出至存储器520以便进一步处理。
WiFi属于短距离无线传输技术,终端设备通过WiFi模块570可以帮助 用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽 带互联网访问。虽然图5示出了WiFi模块570,但是可以理解的是,其并 不属于终端设备的必须构成,完全可以根据需要在不改变发明的本质的范围 内而省略。
处理器580是终端设备的控制中心,利用各种接口和线路连接整个终端 设备的各个部分,通过运行或执行存储在存储器520内的软件程序和/或模 块,以及调用存储在存储器520内的数据,执行终端设备的各种功能和处理 数据,从而对终端设备进行整体监控。可选的,处理器580可包括一个或多 个处理单元;优选的,处理器580可集成应用处理器和调制解调处理器,其 中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理 器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到 处理器580中。
终端设备还包括给各个部件供电的电源590(比如电池),优选的,电 源可以通过电源管理系统与处理器580逻辑相连,从而通过电源管理系统实 现管理充电、放电、以及功耗管理等功能。
摄像头5110可以执行拍照的功能。
尽管未示出,终端设备还可以包括蓝牙模块等,在此不再赘述。
在本发明实施例还提供了一种终端设备,包括:一个或多个处理器;和, 其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执 行时,使得所述终端设备执行如本发明实施例中一个或多个所述的基于直播 的数据分析方法。
在本发明实施例还提供了一个或多个机器可读介质,其上存储有指令, 当由一个或多个处理器执行时,使得终端设备执行如本发明实施例中一个或 多个所述的基于直播的数据分析方法。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固 有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述, 构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定 编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容, 并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本 发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未 详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个 或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时 被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该发明 的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求 中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映 的那样,发明方面在于少于前面发明的单个实施例的所有特征。因此,遵循 具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自 适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以 把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可 以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者 单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴 随的权利要求、摘要和附图)中发明的所有特征以及如此发明的任何方法或 者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴 随的权利要求、摘要和附图)中发明的每个特征可以由提供相同、等同或相 似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其 它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组 合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权 利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使 用。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制, 并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换 实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利 要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位 于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可 以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。 在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。 可将这些单词解释为名称。
本发明实施例公开了A1、一种基于直播的数据分析方法,应用于直播 系统,所述的方法包括:根据第一用户操作,生成第一目标对象动画并在显 示区域进行展示;获取显示区域中与第二用户相关的第二目标对象的位置和 动作;当第二目标对象的位置与第一目标对象的位置满足第一预设条件,且 第二目标对象的动作满足第二预设条件时,将所述第一目标对象对应的标的 物发送至所述第二用户账户。
A2、如A1所述的方法,所述依据第一用户操作,生成第一目标对象 动画,包括:
获取第一用户操作,依据所述操作确定第一目标对象和对应的发射方 向;
依据所述第一目标对象和对应的发射方向,生成第一目标对象动画。
A3、如A2所述的方法,所述依据所述第一目标对象和对应的发射方 向,生成第一目标对象动画,包括:
依据所述第一目标对象和对应的发射方向,采用动画引擎生成第一目标 对象动画;
其中,所述动画引擎包括:3D动画引擎和2D动画引擎。
A4、如A3所述的方法,所述动画引擎依据所述显示区域中的显示内 容调整所述第一目标对象的运动轨迹。
A5、如A1所述的方法,所述获取显示区域中与第二用户相关的第二 目标对象的位置和动作,包括:
获取第二用户的直播视频数据,从所述直播视频数据中提取各帧直播图 像;
对所述各帧直播图像分别进行图像识别,确定各帧直播图像的显示区域 中与第二用户相关的第二目标对象的特征;
依据各帧直播图像对应第二目标对象的特征,确定对应的第二目标对象 的位置和动作。
A6、如A5所述的方法,所述对所述各帧直播图像分别进行图像识别, 确定各帧直播图像中与第二用户相关的第二目标对象的特征,包括:
通过对各帧直播图像进行人脸识别,确定各帧直播图像的显示区域中用 户的五官特征和/或面部轮廓特征;
和/或,
通过对各帧直播图像进行用户识别,确定各帧直播图像的显示区域中用 户的肢体特征;
将所述五官特征,和/或,面部轮廓特征,和/或,肢体特征确定为第二 目标对象的特征。
A7、如A6所述的方法,所述五官特征包括:五官位置特征和五官动 作特征,所述面部轮廓特征包括:面部轮廓位置特征,所述肢体特征包括: 手部特征和足部特征,所述手部特征包括:手部位置特征和手部动作特征, 所述足部特征包括:足部位置特征和部动作特征。
A8、如A1所述的方法,还包括:
判断所述第二目标对象的位置与第一目标对象的位置是否匹配;
若所述第二目标对象的位置与第一目标对象的位置匹配,确定所述第二 目标对象的位置与第一目标对象的位置满足第一预设条件。
A9、如A1所述的方法,还包括:判断所述第二目标对象的动作是否 是预设动作;
若所述第二目标对象的动作是预设动作,则确定所述第二目标对象的动 作满足第二预设条件。
本发明实施例还公开了B10、一种基于直播的数据分析装置,包括:
数据生成模块,用于根据第一用户操作,生成第一目标对象动画并在显 示区域进行展示;
数据获取模块,用于获取显示区域中与第二用户相关的第二目标对象的 位置和动作;
对象发送模块,用于当第二目标对象的位置与第一目标对象的位置满足 第一预设条件,且第二目标对象的动作满足第二预设条件时,将所述第一目 标对象对应的标的物发送至所述第二用户账户。
B11、如B10所述的装置,所述数据生成模块包括:
信息获取子模块,用于获取第一用户操作,依据所述操作确定第一目标 对象和对应的发射方向;
动画生成子模块,用于依据所述第一目标对象和对应的发射方向,生成 第一目标对象动画。
B12、如B11所述的装置,所述动画生成子模块,具体依据所述第一 目标对象和对应的发射方向,采用动画引擎生成第一目标对象动画;其中, 所述动画引擎包括:3D动画引擎和2D动画引擎。
B13、如B12所述的装置,所述动画引擎依据所述显示区域中的显示 内容调整所述第一目标对象的运动轨迹。
B14、如B10所述的装置,所述数据获取模块包括:
图像提取子模块,用于获取第二用户的直播视频数据,从所述直播视频 数据中提取各帧直播图像;
图像识别子模块,用于对所述各帧直播图像分别进行图像识别,确定各 帧直播图像的显示区域中与第二用户相关的第二目标对象的特征;
数据确定子模块,用于依据各帧直播图像对应第二目标对象的特征,确 定对应的第二目标对象的位置和动作。
B15、如B14所述的装置,所述图像识别子模块,具体用于通过对各 帧直播图像进行人脸识别,确定各帧直播图像的显示区域中五官特征和/或面 部轮廓特征;和/或,通过对各帧直播图像进行用户识别,确定各帧直播图像 的显示区域中用户的肢体特征;将所述五官特征,和/或,面部轮廓特征,和 /或,肢体特征确定为第二目标对象的特征。
B16、如B15所述的装置,所述五官特征包括:五官位置特征和五官 动作特征,所述面部特征包括:面部轮廓位置特征,所述肢体特征包括:手 部特征和足部特征,所述手部特征包括:手部位置特征和手部动作特征,所 述足部特征包括:足部位置特征和部动作特征。
B17、如B10所述的装置,还包括:
位置判断模块,用于判断所述第二目标对象的位置与第一目标对象的位 置是否匹配;若所述第二目标对象的位置与第一目标对象的位置匹配,确定 所述第二目标对象的位置与第一目标对象的位置满足第一预设条件。
B18、如B10所述的装置,还包括:
动作判断模块,用于判断所述第二目标对象的动作是否是预设动作;若 所述第二目标对象的动作是预设动作,则确定所述第二目标对象的动作满足 第二预设条件。
本发明实施例还公开了C19、一种终端设备,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理 器执行时,使得所述终端设备执行如A1-A9中一个或多个所述的基于直播的 数据分析方法。
本发明实施例还公开了D20、一个或多个机器可读介质,其上存储有 指令,当由一个或多个处理器执行时,使得终端设备执行如A1-A9中一个或 多个所述的基于直播的数据分析方法。

Claims (10)

1.一种基于直播的数据分析方法,应用于直播系统,所述的方法包括:
根据第一用户操作,生成第一目标对象动画并在显示区域进行展示;
获取显示区域中与第二用户相关的第二目标对象的位置和动作;
当第二目标对象的位置与第一目标对象的位置满足第一预设条件,且第二目标对象的动作满足第二预设条件时,将所述第一目标对象对应的标的物发送至所述第二用户账户。
2.如权利要求1所述的方法,其特征在于,所述依据第一用户操作,生成第一目标对象动画,包括:
获取第一用户操作,依据所述操作确定第一目标对象和对应的发射方向;
依据所述第一目标对象和对应的发射方向,生成第一目标对象动画。
3.如权利要求2所述的方法,其特征在于,所述依据所述第一目标对象和对应的发射方向,生成第一目标对象动画,包括:
依据所述第一目标对象和对应的发射方向,采用动画引擎生成第一目标对象动画;
其中,所述动画引擎包括:3D动画引擎和2D动画引擎。
4.如权利要求3所述的方法,其特征在于,所述动画引擎依据所述显示区域中的显示内容调整所述第一目标对象的运动轨迹。
5.如权利要求1所述的方法,其特征在于,所述获取显示区域中与第二用户相关的第二目标对象的位置和动作,包括:
获取第二用户的直播视频数据,从所述直播视频数据中提取各帧直播图像;
对所述各帧直播图像分别进行图像识别,确定各帧直播图像的显示区域中与第二用户相关的第二目标对象的特征;
依据各帧直播图像对应第二目标对象的特征,确定对应的第二目标对象的位置和动作。
6.如权利要求5所述的方法,其特征在于,所述对所述各帧直播图像分别进行图像识别,确定各帧直播图像中与第二用户相关的第二目标对象的特征,包括:
通过对各帧直播图像进行人脸识别,确定各帧直播图像的显示区域中用户的五官特征和/或面部轮廓特征;
和/或,
通过对各帧直播图像进行用户识别,确定各帧直播图像的显示区域中用户的肢体特征;
将所述五官特征,和/或,面部轮廓特征,和/或,肢体特征确定为第二目标对象的特征。
7.如权利要求6所述的方法,其特征在于,所述五官特征包括:五官位置特征和五官动作特征,所述面部轮廓特征包括:面部轮廓位置特征,所述肢体特征包括:手部特征和足部特征,所述手部特征包括:手部位置特征和手部动作特征,所述足部特征包括:足部位置特征和部动作特征。
8.一种基于直播的数据分析装置,包括:
数据生成模块,用于根据第一用户操作,生成第一目标对象动画并在显示区域进行展示;
数据获取模块,用于获取显示区域中与第二用户相关的第二目标对象的位置和动作;
对象发送模块,用于当第二目标对象的位置与第一目标对象的位置满足第一预设条件,且第二目标对象的动作满足第二预设条件时,将所述第一目标对象对应的标的物发送至所述第二用户账户。
9.一种终端设备,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述终端设备执行如权利要求1-7中一个或多个所述的基于直播的数据分析方法。
10.一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得终端设备执行如权利要求1-7中一个或多个所述的基于直播的数据分析方法。
CN201711092314.9A 2017-11-08 2017-11-08 一种基于直播的数据分析方法、装置和终端设备 Active CN108024134B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711092314.9A CN108024134B (zh) 2017-11-08 2017-11-08 一种基于直播的数据分析方法、装置和终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711092314.9A CN108024134B (zh) 2017-11-08 2017-11-08 一种基于直播的数据分析方法、装置和终端设备

Publications (2)

Publication Number Publication Date
CN108024134A true CN108024134A (zh) 2018-05-11
CN108024134B CN108024134B (zh) 2020-01-21

Family

ID=62079736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711092314.9A Active CN108024134B (zh) 2017-11-08 2017-11-08 一种基于直播的数据分析方法、装置和终端设备

Country Status (1)

Country Link
CN (1) CN108024134B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109068181A (zh) * 2018-07-27 2018-12-21 广州华多网络科技有限公司 基于视频直播的足球游戏交互方法、系统、终端及装置
CN109107160A (zh) * 2018-08-27 2019-01-01 广州要玩娱乐网络技术股份有限公司 动画交互方法、装置、计算机存储介质和终端
CN110753233A (zh) * 2019-09-10 2020-02-04 北京达佳互联信息技术有限公司 信息交互的播放方法、装置、电子设备及存储介质
CN111083505A (zh) * 2019-11-19 2020-04-28 广州华多网络科技有限公司 直播间虚拟礼物交互方法、电子设备和装置
CN111182323A (zh) * 2020-01-02 2020-05-19 腾讯科技(深圳)有限公司 图像处理方法、装置、客户端及介质
CN111659114A (zh) * 2019-03-08 2020-09-15 阿里巴巴集团控股有限公司 互动游戏生成方法和装置、处理方法和装置及电子设备
CN113194321A (zh) * 2021-03-22 2021-07-30 北京达佳互联信息技术有限公司 直播间的交互方法、交互装置、电子设备和存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140250199A1 (en) * 2011-10-12 2014-09-04 Credibility Corp. Method and System for Directly Targeting and Blasting Messages to Automatically Identified Entities on Social Media
WO2015166095A1 (en) * 2014-04-30 2015-11-05 Neil Harrison Portable processing apparatus, media distribution system and method
CN106131692A (zh) * 2016-07-14 2016-11-16 广州华多网络科技有限公司 基于视频直播的互动控制方法、装置及服务器
CN106162369A (zh) * 2016-06-29 2016-11-23 腾讯科技(深圳)有限公司 一种实现虚拟场景中互动的方法、装置及系统
US20160344787A1 (en) * 2013-07-02 2016-11-24 Facebook, Inc. Performing an action on a social networking system based on a content identifier embedded in provided content
CN106303733A (zh) * 2016-08-11 2017-01-04 腾讯科技(深圳)有限公司 播放直播特效信息的方法和装置
CN106411877A (zh) * 2016-09-23 2017-02-15 武汉斗鱼网络科技有限公司 一种基于ar技术的视频直播赠送礼物的实现方法及系统
CN106658038A (zh) * 2016-12-19 2017-05-10 广州虎牙信息科技有限公司 基于视频流的直播交互方法及其相应的装置
CN107124664A (zh) * 2017-05-25 2017-09-01 百度在线网络技术(北京)有限公司 应用于视频直播的交互方法和装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140250199A1 (en) * 2011-10-12 2014-09-04 Credibility Corp. Method and System for Directly Targeting and Blasting Messages to Automatically Identified Entities on Social Media
US20160344787A1 (en) * 2013-07-02 2016-11-24 Facebook, Inc. Performing an action on a social networking system based on a content identifier embedded in provided content
WO2015166095A1 (en) * 2014-04-30 2015-11-05 Neil Harrison Portable processing apparatus, media distribution system and method
CN106162369A (zh) * 2016-06-29 2016-11-23 腾讯科技(深圳)有限公司 一种实现虚拟场景中互动的方法、装置及系统
CN106131692A (zh) * 2016-07-14 2016-11-16 广州华多网络科技有限公司 基于视频直播的互动控制方法、装置及服务器
CN106303733A (zh) * 2016-08-11 2017-01-04 腾讯科技(深圳)有限公司 播放直播特效信息的方法和装置
CN106411877A (zh) * 2016-09-23 2017-02-15 武汉斗鱼网络科技有限公司 一种基于ar技术的视频直播赠送礼物的实现方法及系统
CN106658038A (zh) * 2016-12-19 2017-05-10 广州虎牙信息科技有限公司 基于视频流的直播交互方法及其相应的装置
CN107124664A (zh) * 2017-05-25 2017-09-01 百度在线网络技术(北京)有限公司 应用于视频直播的交互方法和装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109068181B (zh) * 2018-07-27 2020-11-13 广州华多网络科技有限公司 基于视频直播的足球游戏交互方法、系统、终端及装置
CN109068181A (zh) * 2018-07-27 2018-12-21 广州华多网络科技有限公司 基于视频直播的足球游戏交互方法、系统、终端及装置
CN109107160B (zh) * 2018-08-27 2021-12-17 广州要玩娱乐网络技术股份有限公司 动画交互方法、装置、计算机存储介质和终端
CN109107160A (zh) * 2018-08-27 2019-01-01 广州要玩娱乐网络技术股份有限公司 动画交互方法、装置、计算机存储介质和终端
CN111659114A (zh) * 2019-03-08 2020-09-15 阿里巴巴集团控股有限公司 互动游戏生成方法和装置、处理方法和装置及电子设备
CN111659114B (zh) * 2019-03-08 2023-09-15 阿里巴巴集团控股有限公司 互动游戏生成方法和装置、处理方法和装置及电子设备
CN110753233A (zh) * 2019-09-10 2020-02-04 北京达佳互联信息技术有限公司 信息交互的播放方法、装置、电子设备及存储介质
CN110753233B (zh) * 2019-09-10 2022-11-11 北京达佳互联信息技术有限公司 信息交互的播放方法、装置、电子设备及存储介质
CN111083505A (zh) * 2019-11-19 2020-04-28 广州华多网络科技有限公司 直播间虚拟礼物交互方法、电子设备和装置
CN111182323A (zh) * 2020-01-02 2020-05-19 腾讯科技(深圳)有限公司 图像处理方法、装置、客户端及介质
CN111182323B (zh) * 2020-01-02 2021-05-28 腾讯科技(深圳)有限公司 图像处理方法、装置、客户端及介质
CN113194321A (zh) * 2021-03-22 2021-07-30 北京达佳互联信息技术有限公司 直播间的交互方法、交互装置、电子设备和存储介质
WO2022199023A1 (zh) * 2021-03-22 2022-09-29 北京达佳互联信息技术有限公司 直播间的交互方法和交互装置
CN113194321B (zh) * 2021-03-22 2023-02-17 北京达佳互联信息技术有限公司 直播间的交互方法、交互装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN108024134B (zh) 2020-01-21

Similar Documents

Publication Publication Date Title
CN108024134A (zh) 一种基于直播的数据分析方法、装置和终端设备
CN107801106B (zh) 一种视频片段截取方法及电子设备
CN108984087B (zh) 基于三维虚拟形象的社交互动方法及装置
CN107734376B (zh) 一种多媒体数据播放的方法以及装置
CN108762640A (zh) 一种弹幕信息的显示方法和终端
CN109215007A (zh) 一种图像生成方法及终端设备
CN107864401A (zh) 一种基于直播的监控方法、装置、系统及终端设备
CN110490897A (zh) 模仿视频生成的方法和电子设备
CN107315516A (zh) 一种图标播放方法、移动终端以及计算机可读存储介质
CN110087149A (zh) 一种视频图像分享方法、装置及移动终端
CN110465080A (zh) 控制振动的方法、装置、移动终端及计算机可读存储介质
CN108259988A (zh) 一种视频播放控制方法、终端及计算机可读存储介质
CN108628515A (zh) 一种多媒体内容的操作方法和移动终端
CN106713840A (zh) 虚拟信息显示方法及装置
CN110166848A (zh) 一种直播互动的方法、相关装置及系统
CN107767430A (zh) 一种拍摄处理方法、终端及计算机可读存储介质
CN108288171A (zh) 广告插入方法、服务器及计算机可读存储介质
CN109151162A (zh) 一种多面屏交互控制方法、设备及计算机可读存储介质
CN110149517A (zh) 视频处理的方法、装置、电子设备及计算机存储介质
CN107770450A (zh) 图像处理方法、装置及终端设备
CN108804546A (zh) 一种服饰搭配推荐方法及终端
CN109618218A (zh) 一种视频处理方法及移动终端
CN108744495A (zh) 一种虚拟按键的控制方法、终端和计算机存储介质
CN109276881A (zh) 一种游戏控制方法、设备
CN107908348B (zh) 显示的方法和移动终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant