CN115190324B - 线上线下互动直播热度的确定方法、装置及设备 - Google Patents
线上线下互动直播热度的确定方法、装置及设备 Download PDFInfo
- Publication number
- CN115190324B CN115190324B CN202210766381.9A CN202210766381A CN115190324B CN 115190324 B CN115190324 B CN 115190324B CN 202210766381 A CN202210766381 A CN 202210766381A CN 115190324 B CN115190324 B CN 115190324B
- Authority
- CN
- China
- Prior art keywords
- live broadcast
- online
- offline
- people
- heat
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Radiation Pyrometers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本发明公开一种线上线下互动直播热度的确定方法、装置及设备。其中,该方法包括步骤:获取目标直播的全景画面,获取目标直播的线下基础人数;对所述全景画面进行人头检测,得到线下实际人数;基于所述线下基础人数和所述线下实际人数,得出目标直播的线下热度值;获取目标直播的在线人数;基于所述在线人数,得到目标直播的线上热度值;基于所述线上热度值和所述线下热度值,得到所述目标直播的热度。本发明针对线上线下互动直播,分别计算线下和线上热度值,并综合二者得到最终的直播活动的热度。对于线下热度值采用人头检测技术来点算人数,快速无感地得到实际人数,并且还结合线下活动的特定,利用实际人数和基础人数得出相对准确的热度值。
Description
技术领域
本发明涉及互联网直播的技术领域,更具体地,涉及一种线上线下互动直播热度的确定方法、装置、设备及存储介质。
背景技术
线上线下互动的网络直播逐渐渗透到人们的日常生活之中。在线上线下互动的网络直播进行时,可以向线上的用户推荐其中正在进行的直播,但在向观众推荐直播之前,必须要判断哪个直播热度较高或较受欢迎的,这时候有必要确定各个直播之间的热度。
现有技术中,线上的网络直播的热度通常是基于直播中的观看人数确定的,直播的热度会随着观看人数的增多而升高,或随着随着观看人数的减少而降低。然而,对于线上线下互动的网络直播,仅仅通过线上人员的观看人数量是无法全面地反映直播的精彩程度的,线下现场的参与人员的参与度也是评价网络直播的精彩度的重要依据。但目前的技术中,没有关注到线下现场的参与热度,不能全面评估线上线下互动直播的热度。
发明内容
本发明为克服无法全面评估线上线下互动直播热度的缺陷,提供一种线上线下互动直播热度的确定方法、装置、设备及存储介质,本发明采用的技术方案如下。
第一方面,本发明提供一种线上线下互动直播热度的确定方法,包括步骤:
获取目标直播的全景画面,获取目标直播的线下基础人数;
对所述全景画面进行人头检测,得到线下实际人数;
基于所述线下基础人数和所述线下实际人数,得出目标直播的线下热度值;
获取目标直播的在线人数;
基于所述在线人数,得到目标直播的线上热度值;
基于所述线上热度值和所述线下热度值,得到所述目标直播的热度。
在一种实施方式中,还包括步骤:
基于重要人物数据库对全景画面进行人脸识别,得到目标直播的第一重要人物参与数;
还基于所述第一重要人物参与数得出所述线下热度值。
在一种实施方式中,还包括步骤:
从重要人物数据库中获取至少一名可用重要人物的资料;
向推送服务器发送推送指令,所述推送指令用于指示所述推送服务器向所述可用重要人物的账号推送关于目标直播的通知;
在预设时间后,针对所述可用重要人物对全景画面进行人脸识别,得到可用重要人物的参与结果;
根据所述参与结果得到第二重要人物参与数;
还基于所述第二重要人物参与数得出所述线下热度值。
在一种实施方式中,还包括步骤:
对所述可用重要人物进行目标跟踪,得到所述可用重要人物的参与时长;
还基于所述参与时长得出所述第二重要人物参与数。
在一种实施方式中,所述互动直播为教学互动直播;
所述方法还包括步骤:
对直播画面进行S-T行为分析,得到S-T行为分析结果;
还基于所述S-T行为分析结果得出所述线下热度值。
在一种实施方式中,所述互动直播为教学互动直播;
所述方法还包括步骤:
对直播画面进行iFIAS分析,得到iFIAS分析结果;
还基于所述iFIAS分析得出所述线下热度值。
在一种实施方式中,所述方法还包括步骤:
获取目标直播的在线打点数;
还基于所述打点数得出所述线上热度值。
第二方面,本发明提供一种线上线下互动直播热度的确定装置,包括:
第一获取模块,用于获取目标直播的全景画面,获取目标直播的线下基础人数;
检测模块,用于对所述全景画面进行人头检测,得到线下实际人数;
第一计算模块,用于基于所述线下基础人数和所述线下实际人数,得出目标直播的线下热度值;
第二获取模块,用于获取目标直播的在线人数;
第二计算模块,用于基于所述在线人数,得到目标直播的线上热度值;
第三计算模块,用于基于所述线上热度值和所述线下热度值,得到所述目标直播的热度。
第三方面,本发明提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任一实施方式的方法。
第四方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现上述任一实施方式的方法。
本发明针对线上线下互动直播,分别计算线下和线上的热度值,并综合二者得到最终的直播活动的热度。对于线下热度值的计算,本发明采用人头检测技术来点算人数,能够快速无感准确地得到实际人数,并且还结合线下活动的特定,利用实际人数和基础人数,得出相对准确的热度值。本发明的线上线下互动直播热度的确定方法能够全面地反映线上线下直播的热度,为各种依赖于热度的活动提供较为准确的依据。
附图说明
图1是本发明实施例一流程示意图。
图2是本发明实施例一一实施方式的流程示意图。
图3是本发明实施例一另一实施方式的流程示意图。
图4是S-T行为分析的教学模式分类图。
图5是本发明实施例二整体结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
需要说明的是,本发明实施例所涉及的术语“第一\第二\……”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\……”在允许的情况下可以互换特定的顺序或先后次序。应该理解“第一\第二\……”区分的对象在适当情况下可以互换,以使这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
实施例一
请参见图1,图1为本发明实施例一提供的一种线上线下互动直播热度的确定方法的流程示意图,该方法包括步骤S110、步骤S120、步骤S130、步骤S140、步骤S150和步骤S160。需要注意的是,步骤S110-步骤S160仅为附图标记,用于清晰解释实施例与附图1的对应关系,不代表对本实施例中各步骤的顺序限定。
本发明所说的线上线下互动直播一般包括:线下活动现场和线上观看活动现场的终端。在线上线下互动直播中,线上用户可以通过终端与活动现场的人进行互动。例如,在远程会议中,线下活动现场是会议的主会场,线上用户可以通过终端与主会场的主持人或主讲人进行沟通。又例如,在远程教学中,线下活动现场是进行教学活动的教室,线上用户可以通过终端与教室中的老师或学生进行互动。本实施例为了方便描述,以远程教学的场景进行说明。
步骤S110,获取目标直播的全景画面,获取目标直播的线下基础人数。
相对于单纯的线上直播,线上线下同时进行的直播中,线下活动现场也有自己的特点。一般来说,线下活动都有指定参与该活动的人,这些人的数目就是基础人数。例如在远程会议中,有一些人员是必须参与到这次会议中的,这些人员的数目就是基础人数。又例如在远程教学中,教学现场实际上是一个班的教学实况,这个班本身的学生数目就是基础人数。
线上线下互动直播通常都包含多个拍摄镜头、多个画面,例如主讲特写画面、观众全景画面和现场全景画面等,本步骤中是获取其中的全景画面。这里需要说明的是,这个全景画面优选是针对观众的全景画面。
步骤S120,对所述全景画面进行人头检测,得到线下实际人数。
本步骤是为了得出线下现场的具体参与人数,即线下实际人数。因为线下参与的人数可以在一定程度上反映该直播线下的热度。另外,由于直播通常有全景的画面,本发明利用该全景画面进行人头检测来点算人数,能够快速无感准确地得到实际人数。
对于人头检测,可以使用基于深度学习的目标检测算法,其中,基于深度学习的目标检测算法主要分为两类:Two stage目标检测算法和One stage目标检测算法。Two stage目标检测算法,先进行区域生成(region proposal,RP)(一个有可能包含待检物体的预选框),再通过卷积神经网络进行样本分类,任务是:特征提取->生成RP->分类/定位回归。常见的two stage目标检测算法有:R-CNN、SPP-Net、Fast R-CNN、Faster R-CNN和R-FCN等。One stage目标检测算法,不用RP,直接在网络中提取特征来预测物体分类和位置,任务是:特征提取->分类/定位回归。常见的one stage目标检测算法有:OverFeat、YOLOv1、YOLOv2、YOLOv3、SSD和RetinaNet等。
步骤S130,基于所述线下基础人数和所述线下实际人数,得出目标直播的线下热度值。
因为线下基础人数是本就要参与本次活动的人数,不能体现人员的参与度,所以不能算在热度值里面。因此,可以用实际人数减去基础人数得到的计划外的人数,用计划外的人数计算目标直播的线下热度值。当然,也可以基于计划外的人数与基础人数之间的比值,去估算线下热度值。总之,本领域技术人员可以根据不同的线下热度值的计算标准,基于线下基础人数和线下实际人数建立模型,得出目标直播的线下热度值。
步骤S140,获取目标直播的在线人数。
步骤S150,基于所述在线人数,得到目标直播的线上热度值。
步骤S140与S150与现有技术类似,都是基于在线人数来得到目标直播的线上热度值。对于线上热度值的计算标准,本领域技术人员可以根据实际情况和以往的经验建模,基于在线人数,得出目标直播的线下热度值。
步骤S160,基于所述线上热度值和所述线下热度值,得到所述目标直播的热度。
本次的互动直播包含线下线上的内容,所以最后通过综合线上热度值和所述线下热度值,得到目标直播的热度。
这里需要注意的是,线下热度值和线上热度值应该是相同单位的热度值,例如,线上以人数为单位,线下也要以人数为单位。当然,这个人数不是绝对的人数,可以在绝对的人数的基础上乘以相应的系数。例如,线下人数可以根据计划外的人数与基础人数之间的不同比值,乘以不同的系数。
这里需要指出的是,目标直播的热度是基于线上热度值和线下热度值得出的,但由于线下和线上在实际上是有本质的区别,所以不一定是把两个热度值机械地相加,可以以这两个热度值作为自变量建立经验模型,最终得到目标直播的热度。
本方法针对线上线下互动直播,分别计算线下和线上的热度值,并综合二者得到最终的直播活动的热度。对于线下热度值的计算,本发明采用人头检测技术来点算人数,能够快速无感准确地得到实际人数,并且还结合线下活动的特定,利用实际人数和基础人数,得出相对准确的热度值。本发明的线上线下互动直播热度的确定方法能够全面地反映线上线下直播的热度,为各种依赖于热度的活动提供较为准确的依据。
在一种实施方式中,如图2所示,所述线上线下互动直播热度的确定方法还包括:步骤S210和步骤S220。
步骤S210,基于重要人物数据库对全景画面进行人脸识别,得到目标直播的第一重要人物参与数;
步骤S220,还基于所述第一重要人物参与数得出所述线下热度值。
在线下活动中,重要人物的出席也是评估活动热度的重要依据之一,例如在远程会议中,重要人物可能是某位领导或某位专家,而在远程教学中,重要人物可能是某位课程督导员或学科带头人。直播中的重要人物一般都会被预先加入到数据库中,通过人脸识别,可以识别出这些重要人物有没有出席当前的直播活动,这些重要人物的参与人数就是第一重要人物参与数。这个第一重要人物参与数也是线下热度值的自变量之一,例如,一个重要人物可以相当于是一定数量的普通观众,或者根据专家参与的数量为实际人数乘以预设的系数。
在一种实施方式中,如图3所示,所述线上线下互动直播热度的确定方法还包括:步骤S310、步骤S320、步骤S330、步骤S340和步骤S350。
步骤S310,从重要人物数据库中获取至少一名可用重要人物的资料;
步骤S320,向推送服务器发送推送指令,所述推送指令用于指示所述推送服务器向所述可用重要人物的账号推送关于目标直播的通知;
步骤S330,在预设时间后,针对所述可用重要人物对全景画面进行人脸识别,得到可用重要人物的参与结果;
步骤S340,根据所述参与结果得到第二重要人物参与数;
步骤S350,还基于所述第二重要人物参与数得出所述线下热度值。
如前所述,重要人物的出席也是评估活动热度的重要依据之一,但重要人物不可能注意到每一个直播活动,参与到每一个直播活动。基于以上情况,本实施例主动邀请有空参加的重要人物参加直播,通过重要的人物出席意愿来判断热度。因此,本实施方式中先随机获取至少一名可用重要人物的资料,这些资料包括了这位可用重要人物的人脸资料和账号资料。这里需要指出的是,账号不仅仅是包括在平台上的账号,还包括:微信账号、手机号码等能通知其本人的账号。获取到可用重要人物的资料后,向推送服务器发送推送指令,让推送服务器向可用重要人物的账号推送关于目标直播的通知。推送服务器接到该推送指令后,向可用重要人物的账号推送关于目标直播的通知。可用重要人物收到了通知,就会确定是否前往参加该直播。普通的这类邀请通知,一般都只会让接收者选择“参与”或“不参与”并发送回执。在这种应答机制下,有很多人会随意地回复“参与”,导致统计结果不真实。本实施例中,通过对直播现场进行人脸识别,判断可用重要人物是否有实际参与到直播中,使结果更加真实可靠。然后,根据判断的结果得到关于重要的人物出席意愿的第二重要人物参与数。对于第二重要人物参与数的使用,与第一重要人物参与数是类似的,这里就不再重复了。
在一种实施方式中,所述线上线下互动直播热度的确定方法还包括:步骤S360和步骤S370。
步骤S360,对所述可用重要人物进行目标跟踪,得到所述可用重要人物的参与时长;
步骤S370,还基于所述参与时长得出所述第二重要人物参与数。
由于可用重要人物是被动式参加目标直播活动,其有可能因为活动不够吸引而随时离开直播现场,所以本实施例中基于上述这种情况,针对第二重要人物参与数进行修正。具体地,通过目标跟踪技术得到可用重要人物的参与时长,根据该可用重要人物的参与时长对第二重要人物参与数进行修正。例如,预设若干个时长阈值并设置对应的系数,根据时长对第二重要人物参与数乘以对应的系数,以得到更为准确的第二重要人物参与数。
在一种实施方式中,所述互动直播为教学互动直播;
所述线上线下互动直播热度的确定方法还包括步骤:
对直播画面进行S-T行为分析,得到S-T行为分析结果;
所述线下热度值还基于所述S-T行为分析结果得出。
本实施方式是专门针对教学互动直播的。在教学中,S-T分析法是对课堂教学进行定量分析的典型方法之一,主要是通过对实际教学过程或者教学录像进行采样,对课堂中学生行为(S)、教师行为(T)及师生互动行为(D)记录,形成S-T数据表,根据表绘制成S-T曲线图,最后计算教师占有率Rt值和师生行为转换率Ch值并绘制如图4所示的Rt-Ch图以确定课堂教学模式。对于不同的教学模式,受欢迎的程度是不一样的,所以可以作为判断热度的一个依据。
本实施方式中,通过以往的教学经验,针对不同的课堂教学模式设置对应的系数,根据S-T行为分析结果对初步得出的线下热度值进行修正,得出最终的线下热度值。
在一种实施方式中,所述互动直播为教学互动直播;
所述线上线下互动直播热度的确定方法还包括步骤:
对直播画面进行iFIAS分析,得到iFIAS分析结果;
所述线下热度值还基于所述iFIAS分析得出。
本实施方式是专门针对教学互动直播的。在教学中,iFIAS(弗兰德斯互动分析系统)又是另外一种分析师生互动的方法。弗兰德斯互动分析主要分为课堂观察记录、构建分析矩阵、结果分析等三个步骤。首先,采取时间抽样的方法对教师和学生的言语行为作出判定,依据编码系统记录下相应编码,形成一个连续的数据记录表。其次,从数据记录表提取序对,整理为10×10的矩阵。最后,按照一定的维度进行统计计算,分析得出教师与学生的言语互动特征。
本实施例中,针对不同的教师与学生的言语互动特征类型赋予对应的系数,通过该系数对初步得出的线下热度值进行修正,得出最终的线下热度值。
在一种实施方式中,所述线上线下互动直播热度的确定方法还包括步骤:
获取目标直播的在线打点数;
所述线上热度值还基于所述打点数得出。
目标直播在线上具有打点功能,用户可以在直播期间进行打点,然后添加标签。通常地,添加标签比较多的直播也是比较受欢迎的直播,所以可以通过打点数来评判直播的热度。本领域技术人员可以根据实际的统计结果,设置在线打点数与热度之间的对应关系规则,例如若干个打点数可以兑换成一个在线观众,或者人均打点数达到预设阈值后,对在线人数进行增加等等。
实施例二
与实施例一的方法相对应,如图3所示,本发明还提供一种线上线下互动直播热度的确定装置5,包括:第一获取模块501、检测模块502、第一计算模块503、第二获取模块504、第二计算模块505和第三计算模块506。
第一获取模块501,用于获取目标直播的全景画面,获取目标直播的线下基础人数;
检测模块502,用于对所述全景画面进行人头检测,得到线下实际人数;
第一计算模块503,用于基于所述线下基础人数和所述线下实际人数,得出目标直播的线下热度值;
第二获取模块504,用于获取目标直播的在线人数;
第二计算模块505,用于基于所述在线人数,得到目标直播的线上热度值;
第三计算模块506,用于基于所述线上热度值和所述线下热度值,得到所述目标直播的热度。
本装置针对线上线下互动直播,分别计算线下和线上的热度值,并综合二者得到最终的直播活动的热度。对于线下热度值的计算,本发明采用人头检测技术来点算人数,能够快速无感准确地得到实际人数,并且还结合线下活动的特定,利用实际人数和基础人数,得出相对准确的热度值。本发明的线上线下互动直播热度的确定方法能够全面地反映线上线下直播的热度,为各种依赖于热度的活动提供较为准确的依据。
在一种实施方式中,所述第一获取模块501还用于基于重要人物数据库对全景画面进行人脸识别,得到目标直播的第一重要人物参与数;
所述第一计算模块503还基于所述第一重要人物参与数得出所述线下热度值。
在一种实施方式中,所述第一获取模块501还用于从重要人物数据库中获取至少一名可用重要人物的资料;
所述装置5还包括:发送模块507;
所述发送模块507用于向推送服务器发送推送指令,所述推送指令用于指示所述推送服务器向所述可用重要人物的账号推送关于目标直播的通知;
所述第一获取模块501还用于在预设时间后,针对所述可用重要人物对全景画面进行人脸识别,得到可用重要人物的参与结果,根据所述参与结果得到第二重要人物参与数;
所述第一计算模块503还基于所述第二重要人物参与数得出所述线下热度值。
在一种实施方式中,所述第一获取模块501还用于对所述可用重要人物进行目标跟踪,得到所述可用重要人物的参与时长,还基于所述参与时长得出所述第二重要人物参与数。
在一种实施方式中,所述互动直播为教学互动直播;
所述第二计算模块还用于对直播画面进行S-T行为分析,得到S-T行为分析结果,还基于所述S-T行为分析结果得出所述线下热度值。
在一种实施方式中,所述互动直播为教学互动直播;
所述第二计算模块还用于对直播画面进行iFIAS分析,得到iFIAS分析结果,还基于所述iFIAS分析得出所述线下热度值。
在一种实施方式中,所述第二获取模块还用于获取目标直播的在线打点数;
所述第二计算模块还基于所述打点数得出所述线上热度值。
实施例三
本发明实施例还提供了一种存储介质,其上存储有计算机指令,该指令被处理器执行时实现上述任一实施例的线上线下互动直播热度的确定方法。
本领域的技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、随机存取存储器(RAM,Random Access Memory)、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、终端、或者网络设备等)执行本发明各个实施例方法的全部或部分。而前述的存储介质包括:移动存储设备、RAM、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
与上述的计算机存储介质对应的是,在一个实施例中还提供一种计算机设备,该计算机设备包括存储器、编码器及存储在存储器上并可在编码器上运行的计算机程序,其中,编码器执行程序时实现如上述各实施例中的任意一种线上线下互动直播热度的确定方法。
上述计算机设备,针对线上线下互动直播,分别计算线下和线上的热度值,并综合二者得到最终的直播活动的热度。对于线下热度值的计算,本发明采用人头检测技术来点算人数,能够快速无感准确地得到实际人数,并且还结合线下活动的特定,利用实际人数和基础人数,得出相对准确的热度值。本发明的线上线下互动直播热度的确定方法能够全面地反映线上线下直播的热度,为各种依赖于热度的活动提供较为准确的依据。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种线上线下互动直播热度的确定方法,其特征在于,包括步骤:
获取目标直播的全景画面,获取目标直播的线下基础人数,其中,所述线下基础人数为线下指定要参与所述目标直播的人的数目;
对所述全景画面进行人头检测,得到线下实际人数;
基于所述线下基础人数和所述线下实际人数,得出目标直播的线下热度值;
获取目标直播的在线人数;
基于所述在线人数,得到目标直播的线上热度值;
基于所述线上热度值和所述线下热度值,得到所述目标直播的热度。
2.根据权利要求1所述的线上线下互动直播热度的确定方法,其特征在于,还包括步骤:
基于重要人物数据库对全景画面进行人脸识别,得到目标直播的第一重要人物参与数;
还基于所述第一重要人物参与数得出所述线下热度值。
3.根据权利要求1所述的线上线下互动直播热度的确定方法,其特征在于,还包括步骤:
从重要人物数据库中获取至少一名可用重要人物的资料;
向推送服务器发送推送指令,所述推送指令用于指示所述推送服务器向所述可用重要人物的账号推送关于目标直播的通知;
在预设时间后,针对所述可用重要人物对全景画面进行人脸识别,得到可用重要人物的参与结果;
根据所述参与结果得到第二重要人物参与数;
还基于所述第二重要人物参与数得出所述线下热度值。
4.根据权利要求3所述的线上线下互动直播热度的确定方法,其特征在于,还包括步骤:
对所述可用重要人物进行目标跟踪,得到所述可用重要人物的参与时长;
还基于所述参与时长得出所述第二重要人物参与数。
5.根据权利要求1-4任一项所述的线上线下互动直播热度的确定方法,其特征在于,所述互动直播为教学互动直播;
所述方法还包括步骤:
对直播画面进行S-T行为分析,得到S-T行为分析结果;
还基于所述S-T行为分析结果得出所述线下热度值。
6.根据权利要求1-4任一项所述的线上线下互动直播热度的确定方法,其特征在于,所述互动直播为教学互动直播;
所述方法还包括步骤:
对直播画面进行iFIAS分析,得到iFIAS分析结果;
还基于所述iFIAS分析得出所述线下热度值。
7.根据权利要求1-4任一项所述的线上线下互动直播热度的确定方法,其特征在于,所述方法还包括步骤:
获取目标直播的在线打点数;
还基于所述打点数得出所述线上热度值。
8.一种线上线下互动直播热度的确定装置,其特征在于,包括:
第一获取模块,用于获取目标直播的全景画面,获取目标直播的线下基础人数,其中,所述线下基础人数为线下指定要参与所述目标直播的人的数目;
检测模块,用于对所述全景画面进行人头检测,得到线下实际人数;
第一计算模块,用于基于所述线下基础人数和所述线下实际人数,得出目标直播的线下热度值;
第二获取模块,用于获取目标直播的在线人数;
第二计算模块,用于基于所述在线人数,得到目标直播的线上热度值;
第三计算模块,用于基于所述线上热度值和所述线下热度值,得到所述目标直播的热度。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210766381.9A CN115190324B (zh) | 2022-06-30 | 2022-06-30 | 线上线下互动直播热度的确定方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210766381.9A CN115190324B (zh) | 2022-06-30 | 2022-06-30 | 线上线下互动直播热度的确定方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115190324A CN115190324A (zh) | 2022-10-14 |
CN115190324B true CN115190324B (zh) | 2023-08-29 |
Family
ID=83515162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210766381.9A Active CN115190324B (zh) | 2022-06-30 | 2022-06-30 | 线上线下互动直播热度的确定方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115190324B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117579872B (zh) * | 2024-01-15 | 2024-04-30 | 北京永泰万德信息工程技术有限公司 | 一种直播显示屏的直播推送方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103295171A (zh) * | 2013-06-05 | 2013-09-11 | 广州市奥威亚电子科技有限公司 | 基于智能录播系统的s-t教学自动分析方法 |
CN107480944A (zh) * | 2017-04-14 | 2017-12-15 | 上海后博信息科技有限公司 | 双线会议展会系统 |
CN108320132A (zh) * | 2018-01-31 | 2018-07-24 | 塔米智能科技(北京)有限公司 | 一种会议管理方法及系统、服务器 |
CN109034036A (zh) * | 2018-07-19 | 2018-12-18 | 青岛伴星智能科技有限公司 | 一种视频分析方法、教学质量评估方法及系统、计算机可读存储介质 |
CN110769270A (zh) * | 2019-11-08 | 2020-02-07 | 网易(杭州)网络有限公司 | 直播互动的方法及装置、电子设备、存储介质 |
CN111144359A (zh) * | 2019-12-31 | 2020-05-12 | 安徽智恒信科技股份有限公司 | 一种展品评价装置和方法及展品推送方法 |
CN111680569A (zh) * | 2020-05-13 | 2020-09-18 | 北京中广上洋科技股份有限公司 | 基于图像分析的出勤率检测方法、装置、设备及存储介质 |
CN111918081A (zh) * | 2020-07-31 | 2020-11-10 | 广州津虹网络传媒有限公司 | 直播间热度的确定方法、装置、设备及存储介质 |
CN113361393A (zh) * | 2021-06-04 | 2021-09-07 | 唐建军 | 一种远程教育的大数据处理方法、服务器及存储介质 |
CN114445862A (zh) * | 2022-01-20 | 2022-05-06 | 大连东软教育科技集团有限公司 | 一种基于线下课堂监控的出勤率检测方法及系统 |
-
2022
- 2022-06-30 CN CN202210766381.9A patent/CN115190324B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103295171A (zh) * | 2013-06-05 | 2013-09-11 | 广州市奥威亚电子科技有限公司 | 基于智能录播系统的s-t教学自动分析方法 |
CN107480944A (zh) * | 2017-04-14 | 2017-12-15 | 上海后博信息科技有限公司 | 双线会议展会系统 |
CN108320132A (zh) * | 2018-01-31 | 2018-07-24 | 塔米智能科技(北京)有限公司 | 一种会议管理方法及系统、服务器 |
CN109034036A (zh) * | 2018-07-19 | 2018-12-18 | 青岛伴星智能科技有限公司 | 一种视频分析方法、教学质量评估方法及系统、计算机可读存储介质 |
CN110769270A (zh) * | 2019-11-08 | 2020-02-07 | 网易(杭州)网络有限公司 | 直播互动的方法及装置、电子设备、存储介质 |
CN111144359A (zh) * | 2019-12-31 | 2020-05-12 | 安徽智恒信科技股份有限公司 | 一种展品评价装置和方法及展品推送方法 |
CN111680569A (zh) * | 2020-05-13 | 2020-09-18 | 北京中广上洋科技股份有限公司 | 基于图像分析的出勤率检测方法、装置、设备及存储介质 |
CN111918081A (zh) * | 2020-07-31 | 2020-11-10 | 广州津虹网络传媒有限公司 | 直播间热度的确定方法、装置、设备及存储介质 |
CN113361393A (zh) * | 2021-06-04 | 2021-09-07 | 唐建军 | 一种远程教育的大数据处理方法、服务器及存储介质 |
CN114445862A (zh) * | 2022-01-20 | 2022-05-06 | 大连东软教育科技集团有限公司 | 一种基于线下课堂监控的出勤率检测方法及系统 |
Non-Patent Citations (1)
Title |
---|
改进型弗兰德斯互动分析系统及其应用;方海光;高辰柱;陈佳;;中国电化教育(10);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115190324A (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107292271B (zh) | 学习监控方法、装置及电子设备 | |
US10720175B2 (en) | Conferencing system and method for controlling the conferencing system | |
Pan et al. | A comparison of avatar-, video-, and robot-mediated interaction on users’ trust in expertise | |
Biocca et al. | Defining and measuring social presence: Contribution to the networked minds theory and measure | |
US8166109B2 (en) | Linking recognized emotions to non-visual representations | |
CN115190324B (zh) | 线上线下互动直播热度的确定方法、装置及设备 | |
CN111275345A (zh) | 一种基于深度学习的课堂信息化评价及管理的系统及方法 | |
CN111402439B (zh) | 一种基于人脸识别的在线培训到课率统计管理方法及系统 | |
JP2007102344A (ja) | 自動評価装置、プログラムおよび方法 | |
CN111970471B (zh) | 基于视频会议的参会人员评分方法、装置、设备及介质 | |
CN114896498A (zh) | 课程推荐方法、系统、终端及存储介质 | |
CN112261419B (zh) | 直播面试的方法、设备及系统 | |
CN116664013A (zh) | 协作学习模式的效果评估方法、泛在智慧学习系统及介质 | |
CN112070061A (zh) | 基于无人机的运动监控方法及装置 | |
CN115311920B (zh) | 一种vr实训系统、方法、装置、介质以及设备 | |
CN106560807A (zh) | 基于大数据的颜值认证方法与系统 | |
Scherr et al. | Detecting user emotions with the true-depth camera to support mobile app quality assurance | |
Zhao et al. | Generating believable virtual characters using behavior capture and hidden markov models | |
Hassan et al. | A Comparative Study of Interactive Environments for Investigative Interview of A Virtual Child Avatar | |
CN113095198A (zh) | 一种基于学习者行为的ai考核方法 | |
Fang et al. | Estimation of cohesion with feature categorization on small scale groups | |
Anderson et al. | Reach versus impact: comparing webinars and online short courses for educational outcomes | |
KR102683091B1 (ko) | 머신 러닝 기반으로 온라인 강의의 품질을 평가하는 방법 및 장치 | |
CN113747189B (zh) | 直播信息的显示控制方法、装置、电子设备及计算机介质 | |
WO2023100671A1 (ja) | リアクション検知システムおよびリアクション検知結果表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |