CN111741250A - 视频对话场景的参与度分析方法、装置、设备及存储介质 - Google Patents

视频对话场景的参与度分析方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111741250A
CN111741250A CN202010649113.XA CN202010649113A CN111741250A CN 111741250 A CN111741250 A CN 111741250A CN 202010649113 A CN202010649113 A CN 202010649113A CN 111741250 A CN111741250 A CN 111741250A
Authority
CN
China
Prior art keywords
participation
area information
participating
distance
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010649113.XA
Other languages
English (en)
Inventor
吴微
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
G Net Cloud Service Co Ltd
Original Assignee
G Net Cloud Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by G Net Cloud Service Co Ltd filed Critical G Net Cloud Service Co Ltd
Priority to CN202010649113.XA priority Critical patent/CN111741250A/zh
Publication of CN111741250A publication Critical patent/CN111741250A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本申请提供一种视频对话场景的参与度分析方法、装置、设备及存储介质,涉及视频通信技术领域。该方法包括获取至少一个参与图像,每个参与图像为该视频对话场景中一个第一参与终端所采集的图像;确定每个参与图像中目标部位的第一面积信息;根据该第一面积信息,以及预设的目标部位对应的第二面积信息,确定该第一参与终端对应参与用户的视频对话参与度。应用本申请实施例,不仅可以降低主持用户的负担,而且还会使获取到的参与用户的参与度精度得到提高。

Description

视频对话场景的参与度分析方法、装置、设备及存储介质
技术领域
本申请涉及视频通信技术领域,具体而言,涉及一种视频对话场景的参与度分析方法、装置、设备及存储介质。
背景技术
随着电子信息技术及网络技术的快速发展,视频通信技术得到了广泛的应用,如将视频通信技术应用到会议中的视频会议以及应用到课堂中的在线课堂在当今环境下很受欢迎。
通常,在视频对话场景中(如视频会议、在线课堂),主持终端对应的主持用户(如主持人、老师)作为交流过程的主动发起者,对参与终端对应的参与用户在视频对话场景中的参与度非常关心。
目前,主持用户主要都是通过人工的方式检查采集到的视频图像来判断参与用户是否在认真参与到视频对话场景中。然而,通过此方式获取参与用户在视频对话场景参与度情况时,不仅增加了主持用户的负担,而且还会使获取到的参与用户的参与度精度不高。
发明内容
本申请的目的在于,针对上述现有技术中的不足,提供一种视频对话场景的参与度分析方法、装置、设备及存储介质,不仅可以降低主持用户的负担,而且还会使获取到的参与用户的参与度精度得到提高。
为实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请实施例提供了一种视频对话场景的参与度分析方法,所述方法包括:
获取至少一个参与图像,每个参与图像为所述视频对话场景中第一参与终端所采集的图像;
确定所述每个参与图像中目标部位的第一面积信息;
根据所述第一面积信息,以及预设的所述目标部位对应的第二面积信息,确定所述第一参与终端对应参与用户的视频对话参与度。
可选地,所述根据所述第一面积信息,以及预设的所述目标部位对应的第二面积信息,确定所述第一参与终端对应参与用户的视频对话参与度之前,所述方法还包括:
获取至少一个参与距离,每个参与距离为所述第一参与终端所采集的参与用户与所述第一参与终端的显示屏的距离;
根据所述每个参与距离,计算所述每个参与距离对应的所述目标部位的面积信息,并确定所述每个参与距离对应的所述目标部位的面积信息为所述第二面积信息。
可选地,所述根据所述每个参与距离,计算所述每个参与距离对应的所述目标部位的面积信息,包括:
根据所述每个参与距离、预设的基准距离,以及所述基准距离对应的所述目标部位的面积信息,计算所述每个参与距离对应的所述目标部位的面积信息。
可选地,所述根据所述第一面积信息,以及预设的所述目标部位对应的第二面积信息,确定所述第一参与终端对应参与用户的视频对话参与度,包括:
根据所述第一面积信息和所述第二面积信息的比值,确定所述视频对话参与度。
可选地,所述方法还包括:
若目标参与终端对应目标参与用户的视频对话参与度,低于预设的参与度阈值,则在所述视频对话场景中主持终端上发出第一提示信息,所述第一提示信息以指示所述目标参与用户的视频对话参与度,低于所述预设的参与度阈值。
可选地,所述方法还包括:
在所述主持终端上发出第二提示信息,所述第二提示信息以指示所述主持终端对应的主持用户针对所述目标参与用户执行相应的操作。
第二方面,本申请实施例还提供了一种视频对话场景的参与度分析装置,所述装置包括:
第一获取模块,用于获取至少一个参与图像,每个参与图像为所述视频对话场景中第一参与终端所采集的图像;
第一确定模块,用于确定所述每个参与图像中目标部位的第一面积信息;
第二确定模块,用于根据所述第一面积信息,以及预设的所述目标部位对应的第二面积信息,确定所述第一参与终端对应参与用户的视频对话参与度。
可选地,所述第二确定模块之前,所述装置还包括:
第二获取模块,用于获取至少一个参与距离,每个参与距离为所述第一参与终端所采集的参与用户与所述第一参与终端的显示屏的距离;
计算模块,用于根据所述每个参与距离,计算所述每个参与距离对应的所述目标部位的面积信息,并确定所述每个参与距离对应的所述目标部位的面积信息为所述第二面积信息。
可选地,所述计算模块,具体用于根据所述每个参与距离、预设的基准距离,以及所述基准距离对应的所述目标部位的面积信息,计算所述每个参与距离对应的所述目标部位的面积信息。
可选地,所述第二确定模块,具体用于根据所述第一面积信息和所述第二面积信息的比值,确定所述视频对话参与度。
可选地,所述装置还包括:
提示模块,用于若目标参与终端对应目标参与用户的视频对话参与度,低于预设的参与度阈值,则在所述视频对话场景中主持终端上发出第一提示信息,所述第一提示信息以指示所述目标参与用户的视频对话参与度,低于所述预设的参与度阈值。
可选地,所述提示模块,还用于在所述主持终端上发出第二提示信息,所述第二提示信息以指示所述主持终端对应的主持用户针对所述目标参与用户执行相应的操作。
第三方面,本申请实施例提供了一种电子设备,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当所述电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行上述第一方面的视频对话场景的参与度分析方法的步骤。
第四方面,本申请实施例提供了一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述第一方面的视频对话场景的参与度分析方法的步骤。
本申请的有益效果是:
本申请实施例提供一种视频对话场景的参与度分析方法、装置、设备及存储介质,该方法包括:获取至少一个参与图像,每个参与图像为该视频对话场景中一个第一参与终端所采集的图像;确定每个参与图像中目标部位的第一面积信息;根据该第一面积信息,以及预设的目标部位对应的第二面积信息,确定该第一参与终端对应参与用户的视频对话参与度。采用本申请实施例提供的视频对话场景的参与度分析方法,通过利用每个参与图像中目标部位的第一面积信息以及预设的目标部位对应的第二面积信息共同来确定每个参与终端对应参与用户的视频对话参与度。这样可以避免采用人工的方式去确定参与终端对应参与用户的视频对话参与度,不仅可以降低主持用户的负担,而且还会使获取到的参与用户的参与度精度得到提高。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种视频对话场景的参与度分析方法的流程示意图;
图2为本申请实施例提供的另一种视频对话场景的参与度分析方法的流程示意图;
图3为本申请实施例提供的又一种视频对话场景的参与度分析方法的流程示意图;
图4为本申请实施例提供的一种视频对话场景的参与度分析装置的结构示意图;
图5为本申请实施例提供的另一种视频对话场景的参与度分析装置的结构示意图;
图6为本申请实施例提供的又一种视频对话场景的参与度分析装置的结构示意图;
图7为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
图1为本申请实施例提供的一种视频对话场景的参与度分析方法的流程示意图,如图1所示,该方法可以包括:
S101、获取至少一个参与图像。
其中,每个参与图像为视频对话场景中第一参与终端所采集的图像,该视频对话场景可以为视频会议场景或者线上课堂场景等其他场景,本申请对该视频对话场景的具体类型不进行限定。
具体的,参与终端的个数可以为多个,如第一参与终端、第二参与终端、第三参与终端等其他参与终端。一般情况下,一个参与终端对应一个参与用户。本申请实施例以第一参与终端为例对视频对话场景的参与度分析方法进行说明,其他参与终端类似,本申请不再进行解释。该第一参与终端可以为移动终端,如手机、平板电脑、可进行视频通话的穿戴设备等终端,也可以为固定终端,如台式电脑等终端。需要说明的是,本申请不对该第一参与终端的具体形态进行限定。可以通过安装在该第一参与终端上的采集设备获取参与用户的参与视频信息,然后可以将该参与视频信息转换成连续的参与图像,其中,该采集设备可以为摄像头。
举例来说,比如老师正在通过某个线上课堂APP(Application,应用程序)给20个学生上课,每个学生正在上课时的参与图像都可以通过自己使用的参与终端(如手机)进行获取,并将获取到的参与图像可以传输到与该线上课堂APP进行交互的服务器,该服务器可以对接收到的参与图像进行处理。
S102、确定每个参与图像中目标部位的第一面积信息。
具体的,可以按照预设的周期将该第一参与终端上采集设备获取到的参与视频转换成连续的参与图像,该预设周期可以按照实际需求进行设置,比如当视频会议会很重要时,就可以将该预设周期设置的短一点,这样就可以及时对该第一参与终端对应的参与用户的行为进行监测。可以从连续的参与图像中采集多个参与图像,并对每个参与图像进行人脸识别处理,可以识别出每个参与图像中参与用户的目标部位,该目标部位相当于该参与用户的脸部区域,当然,该目标部位也可以包括该参与用户的其他头部区域。在识别出每个参与图像中参与用户的目标部位后,可以分别计算出每个参与图像中参与用户的目标部位的第一面积信息,该第一面积信息可以为该目标部位所占该参与图像面积的百分比,也可以为具体的面积数值。
S103、根据该第一面积信息,以及预设的目标部位对应的第二面积信息,确定该第一参与终端对应参与用户的视频对话参与度。
具体的,在获取到每个参与图像中目标部位的第一面积信息后,可以对该参与用户位于同一位置处时获取到的多个第一面积进行平均,得到平均后的第一面积信息,然后再调取该位置处预设的目标部位对应的第二面积信息得到该第一参与终端对应参与用户的视频对话参与度;或者,可以按照预设的周期对获取到的多个第一面积进行平均,得到平均后的第一面积信息,然后再结合预设周期内平均位置处预设的目标部位对应的第二面积信息该第一参与终端对应参与用户的视频对话参与度;当然,也可以根据每个参与图像的第一面积信息以及预设的目标部位对应的第二面积信息得到该第一参与终端对应参与用户的视频对话参与度。当然也可以采用其他的方式结合第一面积信息以及第二面积信息获取该第一参与终端对应参与用户的视频对话参与度。一般情况下,不管采用上述哪种方式获取参与度,该参与用户在视频对话场景中的一段时间内都会表现出不同的参与度。
综上所述,本申请提供的视频对话场景的参与度分析方法中,该方法包括:获取至少一个参与图像,每个参与图像为该视频对话场景中一个第一参与终端所采集的图像;确定每个参与图像中目标部位的第一面积信息;根据该第一面积信息,以及预设的目标部位对应的第二面积信息,确定该第一参与终端对应参与用户的视频对话参与度。采用本申请实施例提供的视频对话场景的参与度分析方法,通过利用每个参与图像中目标部位的第一面积信息以及预设的目标部位对应的第二面积信息共同来确定每个参与终端对应参与用户的视频对话参与度。这样可以避免采用人工的方式去确定参与终端对应参与用户的视频对话参与度,不仅可以降低主持用户的负担,而且还会使获取到的参与用户的参与度精度得到提高。
下述结合附图对根据该第一面积信息,以及预设的目标部位对应的第二面积信息,确定该第一参与终端对应参与用户的视频对话参与度之前的步骤进行解释。
图2为本申请实施例提供的另一种视频对话场景的参与度分析方法的流程示意图,如图2所示,该方法可以包括:
S201、获取至少一个参与距离,每个参与距离为该第一参与终端所采集的参与用户与该第一参与终端的显示屏的距离。
具体的,在视频对话场景开始之前,可以根据经验将该参与用户安排在该第一参与终端上的采集设备采集区域内的多个位置处,比如有三个位置,分别为位置A、位置B、位置C。可以利用该第一参与终端上设置的距离感应器获取当该参与用户分别位于位置A、位置B、位置C,平视该第一参与终端的显示屏时,该参与用户与该第一参与终端的显示屏的距离,如距离分别为L1、L2、L3。
S202、根据每个参与距离,计算每个参与距离对应的目标部位的面积信息,并确定每个参与距离对应的目标部位的面积信息为第二面积信息。
具体的,可以通过该第一参与终端上的采集设备采集该参与用户位于每个预设位置处的测试图像,对获取到的测试图像进行人脸识别处理,得到每个测试图像上的目标部位,可以计算出每个测试图像上的目标部位的面积信息。也就是说,每个参与距离都有对应的目标部位的面积信息,可以将该参与距离与对应的面积信息按照键值的方式进行存储,如L1对应的第二面积为a,L2对应的第二面积为b,L3对应的第二面积为c,一般情况下,该参与距离越大,对应的第二面积数值就越小。
图3为本申请实施例提供的又一种视频对话场景的参与度分析方法的流程示意图,如图3所示,该方法可以包括:
S301、根据每个参与距离、预设的基准距离,以及该基准距离对应的目标部位的面积信息,计算每个参与距离对应的目标部位的面积信息。
具体的,可以将距离感应器获取到的该参与用户与该第一参与终端的显示屏的多个距离中的一个距离作为预设的基准距离,将位于该预设的基准距离位置处时的测试图像进行处理,得到该测试图像上的目标部位,可以计算出该基准距离对应的目标部位的面积信息,由于参与距离与测试图像的目标部位的面积是成线性变化的,所以可以基于该基准距离对应的目标部位的面积信息,计算出其他参与距离对应的目标部位的面积信息。其中,可以将该参与用户与该第一参与终端的显示屏最近的距离作为预设的基准距离,也可以将该参与用户与该第一参与终端的显示屏最远的距离作为预设的基准距离,当然,该预设的基准距离也可以为其他任何一个参与距离,本申请不对其进行限定。
可选的,根据该第一面积信息,以及预设的目标部位对应的第二面积信息,确定该第一参与终端对应参与用户的视频对话参与度,包括:根据该第一面积信息和该第二面积信息的比值,确定该视频对话参与度。
具体的,当参与用户位于与第一参与终端的显示屏的距离为L1时的位置时,可以确定出该第一参与终端上的采集设备采集到的参与图像中目标部位的第一面积信息,同时已知该参与用户位于与第一参与终端的显示屏的距离为L1时的位置时,平视该第一参与终端的显示屏测试图像上的目标部位对应的第二面积信息,可以通过下式计算出该参与用户在该视频对话中的参与度:
K=N/M*100%
其中,K表示参与度,N表示第一面积信息,M表示第二面积信息。
需要说明的是,该参与用户在该视频对话中的不同阶段可能表现出不同的参与度,都可以将不同参与图像中的第一面积信息和不同测试图像中的第二面积信息代入上述进行计算,得到不同阶段对应的参与度。
可选地,该视频对话场景的参与度分析方法还可以包括:若目标参与终端对应目标参与用户的视频对话参与度,低于预设的参与度阈值,则在该视频对话场景中主持终端上发出第一提示信息,该第一提示信息以指示该目标参与用户的视频对话参与度,低于该预设的参与度阈值。
具体的,该视频对话场景中还包括发起该视频对话场景的终端,即主持终端,在该视屏对话正在进行时,若某个参与终端对应的参与用户行为动作不符合要求,如大幅度的侧身、仰头、低头等行为动作,那么该参与用户的视频对话参与度就会低于预设的参与度阈值,此时,该参与终端称为目标参与终端,对应的参与用户称为目标参与用户。其中,预设的参与度阈值可以根据视频对话场景的性质进行设置,比如某个视频对话所要讲的内容重要程度很高,那么就可以将对应的参与度阈值设置的大一点;比如某个视频对话所要讲的内容重要程度相对较低,那么就可以将对应的参与度阈值设置的小一点。
当该参与用户的视频对话参与度低于预设的参与度阈值时,可以在该主持终端突出显示该参与用户共享的视屏窗口,比如可以将该视频窗口闪动,或者将该视频窗口显示在特殊区域。并同时在该主持终端上显示第一提示信息,该第一提示信息可以使该主持终端对应的主持用户实时了解到专注度不够的参与用户都有哪些。并且也可以在该主持终端上显示第二提示信息,该第二提示信息以指示该主持终端对应的主持用户针对该目标参与用户执行相应的操作。比如该第二提示信息可以包括该目标参与用户的联系方式,主持用户可以通过该联系方式联系该目标参与用户,使该目标参与用户提高专注度,主持用户也可以通过与该目标参与用户的对话框发送消息用来提醒该目标参与用户提高专注度。这样可以同时对大批量的参与用户进行有效的监督,大大节省视频对话场景中的人力开销。
本申请在提供上述视频对话场景的参与度分析方法的基础上,还提供可执行该视频对话场景的参与度分析方法的装置、设备及存储介质,如下分别进行解释说明。
图4为本申请实施例提供的一种视频对话场景的参与度分析装置的结构示意图,如图4所示,该装置可以包括:
第一获取模块401,用于获取至少一个参与图像;
第一确定模块402,用于确定每个参与图像中目标部位的第一面积信息;
第二确定模块403,用于根据该第一面积信息,以及预设的目标部位对应的第二面积信息,确定该第一参与终端对应参与用户的视频对话参与度。
图5为本申请实施例提供的另一种视频对话场景的参与度分析装置的结构示意图,如图5所示,该装置可以包括:
第二获取模块501,用于获取至少一个参与距离,每个参与距离为该第一参与终端所采集的参与用户与该第一参与终端的显示屏的距离;
计算模块502,用于根据每个参与距离,计算每个参与距离对应的目标部位的面积信息,并确定每个参与距离对应的目标部位的面积信息为第二面积信息。
可选地,计算模块502,具体用于根据每个参与距离、预设的基准距离,以及该基准距离对应的目标部位的面积信息,计算每个参与距离对应的目标部位的面积信息。
可选地,第二确定模块403,具体用于根据该第一面积信息和该第二面积信息的比值,确定该视频对话参与度。
图6为本申请实施例提供的又一种视频对话场景的参与度分析装置的结构示意图,如图6所示,该装置还可以包括:
提示模块601,用于若目标参与终端对应目标参与用户的视频对话参与度,低于预设的参与度阈值,则在该视频对话场景中主持终端上发出第一提示信息,该第一提示信息以指示该目标参与用户的视频对话参与度,低于该预设的参与度阈值。
可选地,提示模块601,还用于在该主持终端上发出第二提示信息,该第二提示信息以指示该主持终端对应的主持用户针对该目标参与用户执行相应的操作。
上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(Digital Signal Processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
图7为本申请实施例提供的一种电子设备的结构示意图,如图7所示,该电子设备可以包括:处理器701、存储介质702和总线703,存储介质702存储有处理器701可执行的机器可读指令,当该电子设备运行时,处理器701与存储介质702之间通过总线703通信,处理器701执行机器可读指令,以执行上述视频对话场景的参与度分析方法的步骤。具体实现方式和技术效果类似,这里不再赘述。
可选地,本申请还提供一种存储介质,存储介质上存储有计算机程序,计算机程序被处理器运行时执行上述视频对话场景的参与度分析方法的步骤。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (10)

1.一种视频对话场景的参与度分析方法,其特征在于,所述方法包括:
获取至少一个参与图像,每个参与图像为所述视频对话场景中第一参与终端所采集的图像;
确定所述每个参与图像中目标部位的第一面积信息;
根据所述第一面积信息,以及预设的所述目标部位对应的第二面积信息,确定所述第一参与终端对应参与用户的视频对话参与度。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一面积信息,以及预设的所述目标部位对应的第二面积信息,确定所述第一参与终端对应参与用户的视频对话参与度之前,所述方法还包括:
获取至少一个参与距离,每个参与距离为所述第一参与终端所采集的参与用户与所述第一参与终端的显示屏的距离;
根据所述每个参与距离,计算所述每个参与距离对应的所述目标部位的面积信息,并确定所述每个参与距离对应的所述目标部位的面积信息为所述第二面积信息。
3.根据权利要求2所述的方法,其特征在于,所述根据所述每个参与距离,计算所述每个参与距离对应的所述目标部位的面积信息,包括:
根据所述每个参与距离、预设的基准距离,以及所述基准距离对应的所述目标部位的面积信息,计算所述每个参与距离对应的所述目标部位的面积信息。
4.根据权利要求1所述的方法,其特征在于,所述根据所述第一面积信息,以及预设的所述目标部位对应的第二面积信息,确定所述第一参与终端对应参与用户的视频对话参与度,包括:
根据所述第一面积信息和所述第二面积信息的比值,确定所述视频对话参与度。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若目标参与终端对应目标参与用户的视频对话参与度,低于预设的参与度阈值,则在所述视频对话场景中主持终端上发出第一提示信息,所述第一提示信息以指示所述目标参与用户的视频对话参与度,低于所述预设的参与度阈值。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
在所述主持终端上发出第二提示信息,所述第二提示信息以指示所述主持终端对应的主持用户针对所述目标参与用户执行相应的操作。
7.一种视频对话场景的参与度分析装置,其特征在于,所述装置包括:
第一获取模块,用于获取至少一个参与图像,每个参与图像为所述视频对话场景中第一参与终端所采集的图像;
第一确定模块,用于确定所述每个参与图像中目标部位的第一面积信息;
第二确定模块,用于根据所述第一面积信息,以及预设的所述目标部位对应的第二面积信息,确定所述第一参与终端对应参与用户的视频对话参与度。
8.根据权利要求7所述的装置,其特征在于,所述第二确定模块之前,包括:
第二获取模块,用于获取至少一个参与距离,每个参与距离为所述第一参与终端所采集的参与用户与所述第一参与终端的显示屏的距离;
计算模块,用于根据所述每个参与距离,计算所述每个参与距离对应的所述目标部位的面积信息,并确定所述每个参与距离对应的所述目标部位的面积信息为所述第二面积信息。
9.一种电子设备,特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当所述电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1-6任一所述视频对话场景的参与度分析方法的步骤。
10.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1-6任一所述视频对话场景的参与度分析方法的步骤。
CN202010649113.XA 2020-07-07 2020-07-07 视频对话场景的参与度分析方法、装置、设备及存储介质 Pending CN111741250A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010649113.XA CN111741250A (zh) 2020-07-07 2020-07-07 视频对话场景的参与度分析方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010649113.XA CN111741250A (zh) 2020-07-07 2020-07-07 视频对话场景的参与度分析方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN111741250A true CN111741250A (zh) 2020-10-02

Family

ID=72655494

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010649113.XA Pending CN111741250A (zh) 2020-07-07 2020-07-07 视频对话场景的参与度分析方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111741250A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114693519A (zh) * 2022-02-25 2022-07-01 智己汽车科技有限公司 一种用户参与墙的布置方法与设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050115186A (ko) * 2004-06-03 2005-12-07 이상욱 학습속청, 속기 교육방법과 기술력 시스템
CN107103802A (zh) * 2017-04-28 2017-08-29 南京网博计算机软件系统有限公司 基于在线教育的实时人眼甄别系统和方法
CN108021893A (zh) * 2017-12-07 2018-05-11 浙江工商大学 一种用于判断学生上课专注度的算法
CN109145852A (zh) * 2018-08-31 2019-01-04 辽宁工业大学 一种基于眼睛睁闭状态的驾驶员疲劳状态识别方法
CN110287792A (zh) * 2019-05-23 2019-09-27 华中师范大学 一种处于自然教学环境的课堂中学生学习状态实时分析方法
CN110889672A (zh) * 2019-11-19 2020-03-17 哈尔滨理工大学 一种基于深度学习的学生打卡及上课状态的检测系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050115186A (ko) * 2004-06-03 2005-12-07 이상욱 학습속청, 속기 교육방법과 기술력 시스템
CN107103802A (zh) * 2017-04-28 2017-08-29 南京网博计算机软件系统有限公司 基于在线教育的实时人眼甄别系统和方法
CN108021893A (zh) * 2017-12-07 2018-05-11 浙江工商大学 一种用于判断学生上课专注度的算法
CN109145852A (zh) * 2018-08-31 2019-01-04 辽宁工业大学 一种基于眼睛睁闭状态的驾驶员疲劳状态识别方法
CN110287792A (zh) * 2019-05-23 2019-09-27 华中师范大学 一种处于自然教学环境的课堂中学生学习状态实时分析方法
CN110889672A (zh) * 2019-11-19 2020-03-17 哈尔滨理工大学 一种基于深度学习的学生打卡及上课状态的检测系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114693519A (zh) * 2022-02-25 2022-07-01 智己汽车科技有限公司 一种用户参与墙的布置方法与设备
CN114693519B (zh) * 2022-02-25 2024-05-14 智己汽车科技有限公司 一种用户参与墙的布置方法与设备

Similar Documents

Publication Publication Date Title
KR102187125B1 (ko) 가상 면접 제공 방법 및 이를 이용하는 장치
US20220254158A1 (en) Learning situation analysis method, electronic device, and storage medium
US10796685B2 (en) Method and device for image recognition
US20190149852A1 (en) Live broadcasting method, method for presenting live broadcasting data stream, and terminal
US10148712B2 (en) Automated social network introductions for e-meetings
CN113163153A (zh) 视频会议中违规信息的处理方法、装置、介质及电子设备
CN105653605B (zh) 一种用于网络社区作弊用户挖掘的方法、系统及电子设备
CN111741250A (zh) 视频对话场景的参与度分析方法、装置、设备及存储介质
CN111427990A (zh) 一种智慧校园教学辅助的智能考试控制系统及方法
CN108874673B (zh) 应用程序的测试方法及装置
CN111835617B (zh) 用户头像调整方法、装置及电子设备
US11741964B2 (en) Transcription generation technique selection
CN112507798B (zh) 活体检测方法、电子设备与存储介质
CN111147353B (zh) 识别好友的方法及装置、计算机存储介质、电子设备
CN116366961A (zh) 视频会议方法、装置及计算机设备
CN113709401A (zh) 视频通话方法、设备、存储介质及程序产品
CN113961689A (zh) 对话方法、装置、电子设备及计算机可读存储介质
JP2023036273A (ja) 情報処理装置及び情報処理プログラム
CN113965541B (zh) 会话表情处理方法以及装置
CN113052146A (zh) 情绪预警方法及装置
CN111414838A (zh) 一种注意力检测方法、装置、系统、终端及存储介质
CN111126124A (zh) 多方视频的用户身份验证方法、装置及计算机设备
WO2024042817A1 (ja) 情報提供装置及び情報提供方法
CN112995132B (zh) 在线学习的交互方法、装置、电子设备和存储介质
CN112988475B (zh) 容灾测试方法、装置、测试服务器及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201002