CN103903074A - 一种视频交流的信息处理方法及装置 - Google Patents
一种视频交流的信息处理方法及装置 Download PDFInfo
- Publication number
- CN103903074A CN103903074A CN201210568135.9A CN201210568135A CN103903074A CN 103903074 A CN103903074 A CN 103903074A CN 201210568135 A CN201210568135 A CN 201210568135A CN 103903074 A CN103903074 A CN 103903074A
- Authority
- CN
- China
- Prior art keywords
- participant
- information
- current video
- video
- exchanges
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
- H04L12/1822—Conducting the conference, e.g. admission, detection, selection or grouping of participants, correlating users to one or more conference sessions, prioritising transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/403—Arrangements for multi-party communication, e.g. for conferences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Telephonic Communication Services (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本申请公开了一种视频交流的信息处理方法及装置。方法包括:对每个当前视频交流参与者进行身份识别并分配唯一的身份标识及角色标识;获取当前视频交流的初始化信息以及收集当前视频交流过程的信息;根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找得到当前视频交流参与者所对应的预定策略;使用预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到当前视频交流评价信息;将当前视频交流评价信息发送给当前视频交流参与者。通过上述方式,充分利用视频交流的初始化信息以及视频交流过程的信息,能够有效的提升视频交流效果。
Description
技术领域
本发明涉及通信技术领域,特别是涉及一种视频交流信息处理方法及装置。
背景技术
在计算机、网络技术高速发展的今天,传统的通讯方式如电话、传真等因达不到面对面沟通的效果,不能满足人们日益增长的交流需求,而日益发展的网络环境又使视频和音频的传输成为可能,因此也就诞生了一种新的通信方式—视频交流。
视频交流系统是指通过现有的各种电气通讯传输媒体,将人物的静、动态图像、语音、文字等多种资料分送到各个用户的计算机上,实时传送声音、图像的通信方式。通过视频交流使得在地理上分散的用户可以在网络中共聚一处,通过电视发表意见,同时观察对方的形象、动作、表情等,并能出示实物、图纸、文件等实拍的电视图像或者显示在黑板、白板上写的字和画的图,使参加会议的人感到如同跟对方在进行现场“面对面”的交谈,增加双方对内容的理解,在效果上可以代替现场举行的会议。
随着现代社会的发展,视频交流成为工作沟通或远程教学中越来越重要的手段。与此同时,视频交流系统吸引着越来越多的组织和个人通过它进行更为有效的沟通。
一般的视频交流系统并没有充分利用视频交流的初始化信息以及视频交流过程的信息,不能很好的提升视频交流效果。
发明内容
本申请提供了一种视频交流的信息处理方法及装置的实施方式,能够充分利用视频交流的初始化信息以及视频交流过程的信息,有效提升视频交流效果。
第一方面,提供一种视频交流的信息处理方法,包括:对每个当前视频交流参与者进行身份识别,为每个当前视频交流参与者分配唯一的身份标识及角色标识;获取当前视频交流的初始化信息以及收集当前视频交流过程的信息;根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到所述当前视频交流参与者所对应的预定策略;使用所述查找得到的预定策略对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到所述当前视频交流参与者的当前视频交流评价信息;将所述得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者。
结合第一方面,在第一种可能的实现方式中:所述收集当前视频交流过程的信息的步骤包括:通过人脸跟踪技术检测到有第一参与者的人脸不在图像中时,查找所述第一参与者的人脸以获取第一身份标识,并记录所述第一身份标识及人脸不在图像中的第一参与者离开会场的时间。
结合第一方面的第一种可能的实现方式,在第二种可能的实现方式中:所述收集当前视频交流过程的信息的步骤还包括:通过人脸跟踪技术检测到有新人脸出现时,查找所述新人脸是否与记录的所述第一身份标识相匹配,若是,记录所述第一参与者重回会场的时间,若否,为所述新人脸分配身份标识以及记录所述新人脸的入场的时间。
结合第一方面的第一种可能的实现方式,在第三种可能的实现方式中:所述收集当前视频交流过程的信息的步骤包括:当通过人脸跟踪技术检测到图像中的人脸数量低于预设的数值时,记录当前时间以作为中场休息开始时间;当通过人脸跟踪技术再次检测到图像中的人脸数量达到所述预设的数值时,记录当前时间以作为中场休息结束时间。
结合第一方面,在第四种可能的实现方式中:所述收集当前视频交流过程的信息的步骤包括:通过人脸跟踪技术检测到第二参与者的人脸,并进一步根据表情识别技术检测所述第二参与者的人脸是否打瞌睡,若是,则根据所述打瞌睡的第二参与者的人脸查找到第二身份标识,记录所述第二身份标识以及所述打瞌睡开始时间和结束时间。
结合第一方面,在第五种可能的实现方式中:所述收集当前视频交流过程的信息的步骤包括:当通过语音识别技术检测到有第三参与者的语音时,根据所述第三参与者的语音查找到第三身份标识,记录所述第三身份标识及所述第三参与者发言开始时间。
结合第一方面的第五种可能的实现方式,在第六种可能的实现方式中:所述收集当前视频交流过程的信息的步骤还包括:当通过语音识别技术检测到所述第三参与者的语音结束,记录所述第三参与者发言结束时间,并检测当前时间的会场音量。
结合第一方面的第六种可能的实现方式,在第七种可能的实现方式中:所述检测当前时间的会场音量的步骤之后,还包括:当所述会场音量低于预设的第一阈值,记录所述第三参与者的发言效果为一般;当所述会场音量大于预设的第一阈值但小于预设的第二阈值,记录所述第三参与者的发言效果为良;当所述会场音量大于预设的第二阈值,记录所述第三参与者的发言效果为优,其中,所述第二阈值大于所述第一阈值。
结合第一方面的第五种可能的实现方式,在第八种可能的实现方式中:所述收集当前视频交流过程的信息的步骤还包括:当第一次检测到所述第三参与者的发言时,初始化所述第三参与者的发言次数为1,否则,所述第三参与者的发言次数加1。
结合第一方面,在第九种可能的实现方式中:所述获取当前视频交流的初始化信息的步骤包括:通过初始化当前视频交流系统以获取当前视频交流的至少包括会场数目、每个会场的应到人数信息、实到人数信息、未到场人数信息、当前视频交流开始的时间信息、每个当前视频交流参与者入场的初始时间信息以及每个参与者信息的初始化信息。
结合第一方面,在第十种可能的实现方式中:所述将得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者的步骤包括:通过移动终端、电子邮件、即时通讯工具的至少一种方式将所述得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者。
结合第一方面,在第十一种可能的实现方式中:所述为每个当前视频交流参与者分配唯一的身份标识及角色标识的步骤包括:为每个当前视频交流参与者分配唯一的身份标识及主持人、主讲人、助理、管理员、普通参与者中的至少一种角色标识。
结合第一方面的第十一种可能的实现方式,在第十二种可能的实现方式中:所述使用查找得到的预定策略对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到所述当前视频交流参与者的当前视频交流评价信息的步骤包括下列获取视频交流评价信息中的至少其中一项:使用所述查找得到的主持人/主讲人的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括当前视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息;使用所述查找得到的助理的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括视频交流实时信息、视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息;使用所述查找得到的普通参与者的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括当前视频交流整体信息及所述普通参与者自己的整体表现信息的视频交流评价信息;使用所述查找得到的管理员的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括会场出勤率信息的视频交流评价信息。
第二方面,提供一种视频交流的信息处理装置,包括分配模块、获取模块、查找模块、处理模块以及发送模块,其中:所述分配模块用于对每个当前视频交流参与者进行身份识别,为所述每个当前视频交流参与者分配唯一的身份标识及角色标识;所述获取模块用于获取当前视频交流的初始化信息以及收集当前视频交流过程的信息,并将所述当前视频交流的初始化信息以及所述当前视频交流过程的信息发送给所述处理模块;所述查找模块用于根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到所述当前视频交流参与者所对应的预定策略,并将所述预定策略发送给所述处理模块;所述处理模块用于使用所述查找得到的预定策略对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到所述当前视频交流参与者的当前视频交流评价信息,并将所述当前视频交流参与者的当前视频交流评价信息发送给所述发送模块;所述发送模块用于将所述得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者。
结合第二方面,在第一种可能的实现方式中:所述获取模块具体用于通过人脸跟踪技术检测到第一参与者的人脸不在图像中时,查找所述第一参与者的人脸以获取第一身份标识,并记录所述第一身份标识及人脸不在图像中的第一参与者离开会场的时间。
结合第二方面的第一种可能的实现方式,在第二种可能的实现方式中:所述获取模块还用于通过人脸跟踪技术检测到有新人脸出现时,查找所述新人脸是否与记录的所述第一身份标识相匹配,若是,记录所述第一参与者重回会场的时间,若否,通知所述分配模块为所述新人脸分配身份标识以及记录所述新人脸的入场的时间。
结合第二方面的第一种可能的实现方式,在第三种可能的实现方式中:所述获取模块还用于当通过人脸跟踪技术检测到图像中的人脸数量低于预设的数值时,记录当前时间以作为中场休息开始时间;当通过人脸跟踪技术再次检测到图像中的人脸数量达到所述预设的数值时,记录当前时间以作为中场休息结束时间。
结合第二方面,在第四种可能的实现方式中:所述获取模块具体用于通过人脸跟踪技术检测到第二参与者的人脸,并进一步根据表情识别技术检测所述第二参与者的人脸是否打瞌睡,若是,则根据所述打瞌睡的第二参与者的人脸查找到相应的第二身份标识,记录所述第二身份标识以及所述打瞌睡开始时间和结束时间。
结合第二方面,在第五种可能的实现方式中:所述获取模块具体用于当通过语音识别技术检测到有第三参与者的语音时,根据所述第三参与者的语音查找到第三身份标识,记录所述第三身份标识及所述第三参与者发言开始时间。
结合第二方面的第五种可能的实现方式,在第六种可能的实现方式中:所述获取模块还用于当通过语音识别技术检测到所述第三参与者的语音结束,记录所述第三参与者发言结束时间,并检测当前时间的会场音量。
结合第二方面的第六种可能的实现方式,在第七种可能的实现方式中:所述获取模块还用于当所述会场音量低于预设的第一阈值,记录所述第三参与者的发言效果为一般;当所述会场音量大于预设的第一阈值但小于预设的第二阈值,记录所述第三参与者的发言效果为良;当所述会场音量大于预设的第二阈值,记录所述第三参与者的发言效果为优,其中,所述第二阈值大于所述第一阈值。
结合第二方面的第五种可能的实现方式,在第八种可能的实现方式中:所述获取模块还用于当第一次检测到所述第三参与者的发言时,初始化所述第三参与者的发言次数为1,否则,所述第三参与者的发言次数加1。
结合第二方面,在第九种可能的实现方式中:所述获取模块用于通过初始化当前视频交流系统以获取当前视频交流的至少包括会场数目、每个会场的应到人数信息、实到人数信息、未到场人数信息、当前视频交流开始的时间信息、每个当前视频交流参与者入场的初始时间信息以及每个参与者信息的初始化信息。
结合第二方面,在第十种可能的实现方式中:所述发送模块具体用于通过移动终端、电子邮件、即时通讯工具的至少一种方式将所述得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者。
结合第二方面,在第十一种可能的实现方式中:所述分配模块具体用于对每个当前视频交流参与者进行身份识别,为每个当前视频交流参与者分配唯一的身份标识及主持人、主讲人、助理、管理员、普通参与者中的至少一种角色标识。
结合第二方面的第十一种可能的实现方式,在第十二种可能的实现方式中:所述处理模块具体用于使用所述查找得到的预定策略对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到下列视频交流评价信息中的至少其中一项:使用所述查找得到的主持人/主讲人的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括当前视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息;使用所述查找得到的助理的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括视频交流实时信息、视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息;使用所述查找得到的普通参与者的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括当前视频交流整体信息及所述普通参与者自己的整体表现信息的视频交流评价信息;使用所述查找得到的管理员的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括会场出勤率信息的视频交流评价信息。
本申请实施方式提供的视频交流的信息处理方法,根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到当前视频交流参与者所对应的预定策略,并使用该预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到所述当前视频交流参与者的当前视频交流评价信息。通过这种方式,能够充分利用视频交流的初始化信息以及视频交流过程的信息,并结合不同参与者的角色而采用预定的策略对信息进行处理而得到针对不同角色的不同视频交流评价信息,从而使参与者能够获得跟自己角色对应的视频交流评价信息,既节省了参与者阅读视频交流评价数据的时间,又能得到对自己有帮助的视频交流评价数据,有效提升视频交流的效果。
附图说明
为了更清楚地说明本申请实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请视频交流的信息处理方法的应用场景示意图;
图2是本申请视频交流的信息处理方法的另一个应用场景示意图;
图3是本申请视频交流的信息处理方法一个实施方式的流程图;
图4是本申请视频交流的信息处理方法其中一个实施方式中,收集视频交流过程的信息的流程图;
图5是本申请视频交流的信息处理方法其中一个实施方式中,收集视频交流过程的信息的流程图;
图6是本申请视频交流的信息处理方法其中一个实施方式中,收集视频交流过程的信息的流程图;
图7是本申请视频交流的信息处理装置一个实施方式的结构示意图;
图8是本申请视频交流系统一个实施方式的结构示意图。
具体实施方式
为使本申请实施方式的目的、技术方案和优点更加清楚,下面将结合本申请实施方式中的附图,对本申请实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本申请一部分实施方式,而不是全部的实施方式。基于本申请中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本申请保护的范围。
本申请视频交流的信息处理方法可以在视频交流系统上实现。请参阅图1和图2,为本申请视频交流的信息处理方法的应用场景。图1中是点对点的视频交流应用场景,视频交流系统100之间通过通信总线200实现通信;图2是多点的视频交流应用场景,多个视频交流系统100通过通信总线200与共同的第三方应用300实现通信。
其中,视频交流系统100可以包括信息采集设备11、信息收发设备12以及信息展示设备13。
信息采集设备11用于采集视频交流过程的语音、图像信息等,可以是现有技术中的任何信息采集设备,比如摄像机、麦克风等等。
信息收发设备12用于接收和发送视频交流过程的信息,可以是现有技术中任何可以收发信息的终端设备。
信息展示设备13用于展示视频交流过程的语音、图像信息以及文本信息等,可以是显示器、会控触摸屏、联网的个人终端如手机、Pad等等。
第三方应用300可以是服务器、媒体网关设备、微控制单元设备(MCU)等等。
请参阅图3,本申请视频交流的信息处理方法一个实施方式包括:
步骤S101:对每个当前视频交流参与者进行身份识别,为每个当前视频交流参与者分配唯一的身份标识及角色标识;
自动识别每个视频交流参与者,比如可以是通过指纹识别、虹膜识别、视频分析、语音识别的任一种方式识别视频交流参与者。并为每个视频交流参与者分配唯一的身份标识,比如ID号。以及为每个视频交流参与者分配角色标识,其中,角色标识可以包括是主持人、主讲人、助理、管理员、普通参与者。通常一个视频交流参与者只有一个角色标识,当然,根据需要,也可以同时有两个或两个以上角色标识。
本申请实施方式中,主持人是视频交流的主要管理者和主要发言者,在视频交流中可以分配角色、管理权限、设置视频交流参数、共享文档,并使得参与者跟随主持人的内容切换;主讲人是视频交流的主要发言者,在视频交流过程中可进行转换视频界面,主讲人可以进行发言、共享文档,并使得参加者跟随主讲人的内容切换;助理是视频交流中的协助者,在视频交流过程中可以协助点名,创建投票,问卷,分配权限,文档管理等;普通参与者是视频交流中的主要参加者,主持人或助理可以在视频交流中分配给参与者权限或角色,使其进行语音和数据的交互;管理员负责视频交流会场的各项管理工作。
目前视频交流大多通过管理界面、或者配置文件对这些角色进行配置。也有通过视频分析技术进行自动识别的情形,如视频教学中依据走动时间的多少自动识别老师和学生角色,但视频分析技术与具体应用场景强相关,普适性并不理想。
步骤S102:获取当前视频交流的初始化信息以及收集当前视频交流过程的信息;
通过初始化当前视频交流系统以获取当前视频交流初始化信息。其中,视频交流的初始化信息包括但不限于是:会场数目信息,比如本次视频交流有3个会场;每个会场应到的人数信息,比如每个会场应到3人;实到人数信息,比如甲、乙、丙会场的实到人数分别为2、2、1等;未到场人信息,比如甲会场王某、乙会场丁某以及丙会场张某、李某未到场等等;当前视频交流开始的时间,比如当前视频交流开始时间为9:30;每个当前视频交流参与者入场的初始时间信息,比如可以设定在视频交流开始时间之前入场的参与者入场的初始时间都设定为视频交流开始时间,而在视频交流开始时间之后入场的参与者入场的初始时间设定为该参与者实际入场时间;每个参与者信息,比如参与者的联系方式,可以包括参与者的手机号、QQ号、微信号码以及电子邮箱等等。
这些视频交流初始化信息会实时的输出给相关人员比如视频交流的秘书或者主持人,以使相关人员可以根据实际情况采取相应的行动。比如秘书可以及时的通知未到场的人员及时入场,或者主持人也可以在未到场参与者比较多的情况下适当将视频交流的开始时间延后等。
通过音频以及视频结合的方式获取视频交流过程的信息。比如通过人脸识别及跟踪技术与语音识别技术相结合的方式实时获取视频交流现场的信息。其中,视频交流过程的信息包括但不限于是:视频交流进行中的实时信息比如:会场情况信息、参与者状态信息、视频交流状态信息等。
会场情况信息包括但不限于是:
视频交流的中途休息情况信息,比如本次视频交流中途休息了两次,每次休息15分钟;
视频交流的中途人员离场以及离场时间信息,比如视频交流中途甲会场的王某离开会场20分钟;
视频交流的中途人员入场以及入场时间信息,比如张某在视频交流中途进入丙会场等等。当然,为了记录更为详细的信息,还可以包括具体的时间点,比如张某在15点43分进入丙会场。
参与者状态信息包括但不限于:
参与者精力不集中的状态信息,包括参与者讨论、低头、瞌睡、玩手机的状态信息,比如乙会场的李某打瞌睡半小时;
参与者发言次数以及发言时长信息,比如丙会场的张某发言3次,每次发言2分钟,合计6分钟;
每次发言后其他参与者的反应信息,比如丙会场的张某A发言有2次引起大家鼓掌等。
步骤S103:根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到当前视频交流参与者所对应的预定策略;
通常情况下,每个视频交流参与者因为角色不一样,其关注的视频交流相关的信息不一样。例如会场管理员会关注会场出勤率,但不会对各参与者的信息感兴趣;隐私,如A参与者关心自己的视频交流出勤率及表现情况,但不会关注B参与者的相关信息,也不愿意自己的视频交流信息被其他参与者获知。因此,可以设定不同的角色标识对应不同的视频交流信息处理的策略。
根据当前视频交流参与者的角色标识,通过查找可以得到当前视频交流参与者所对应的预定策略。
步骤S104:使用查找得到的预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到当前视频交流参与者的当前视频交流评价信息;
使用查找得到的预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到针对视频交流参与者的角色的不同的视频交流评价信息。本实施方式,不同角色标识对应的视频交流评价信息包含的内容可参见表1。
其中,视频交流评价信息包括但不限于是以下视频交流评价信息中的至少一项:
适于视频交流助理查看的至少包括视频交流实时信息、视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息,比如本次视频交流有甲、乙、丙3个会场,每个会场应到人数3人,每个会场实到人数分别为2人,每个会场还有1人未入会;本次视频交流实际时长2小时,中途休息0.5小时;甲、乙会场出勤率分别为100%、丙会场出勤率66.7%;甲会场的王某在场时间2小时,有效在场时间1.5小时(其中有效在场时间为在场总时间减去精力不集中的时间),其他人在场时间\有效在场时间都为2小时;乙会场的李某在场时间2小时,有效在场时间1.5小时,其他人在场时间\有效在场时间都为2小时;丙会场的2人在场时间\有效在场时间分别都为2小时;大家对议题“技术方案”和“产品前景”比较感兴趣等,助理可以将这样的视频交流评价信息通过口头或书面形式向领导汇报;
适于视频交流普通参与者查看的至少包括当前视频交流整体信息及普通参与者自己的整体表现信息的视频交流评价信息,比如针对普通参与者王某的视频交流评价信息可以包括:本次视频交流进行2.5小时,有效时长2小时,中场休息0.5小时;王某打瞌睡0.5小时,王某发言8次以及发言的相应内容,大家为王某鼓掌6次;大家对“技术方案”讨论激烈,“产品前景”引起的欢笑和鼓掌最多等;
适于视频交流主讲人/主持人查看的至少包括当前视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息,如本次视频交流参与者出勤率高,中途乙会场有1人入会,甲会场的王某离开会场0.5小时,乙会场的李某打瞌睡0.5小时,丙会场的张某发言积极,而且发言后得到大家的一致认同,大家对“技术方案”这一话题的讨论非常激烈;大家对议题“技术方案”和“产品前景”比较感兴趣等;
适于管理员查看的至少包括会场出勤率信息的视频交流评价信息,如本次视频交流甲乙会场出勤率分别为100%,丙会场出勤率66.7%;
以上只是本实施方式根据视频交流角色的不同,生成相应不同的视频交流评价信息的举例,在实际应用过程中,可以根据需要设定策略,从而使生成的每个角色对应的视频交流评价信息所包含的内容能够满足视频交流参与者的实际需求。
步骤S105:将得到的当前视频交流参与者的当前视频交流评价信息发送给当前视频交流参与者;
通过移动终端(如手机、Pad)、电子邮件、即时通讯工具(比如QQ、MSN等)的至少一种方式将得到的当前视频交流参与者的当前视频交流评价信息发送给当前视频交流参与者。
视频交流参与者可以通过会控触摸屏、移动终端如手机、电子邮箱等查看视频交流评价信息(包括文本/图片/视频/语音等任意形式的视频交流评价信息)。详请参阅表1。
表1:不同角色对应的视频交流评价信息内容以及展示方式
基于上述得到的视频交流评价信息,可以进一步结合历史视频交流评价综合总结,挖掘出一些新的策略,包括对于视频交流会场选择、视频交流相关话题以及视频交流模式的调整或改善的策略等。比如,本次视频交流甲乙会场出勤率分别为100%、丙会场出勤率66.7%,历史视频交流甲、乙、丙会场历史平均出勤率分别为80%(10次)、60%(8次)、40%(6次),总结得到甲、乙、丙会场目前平均出勤率分别为:81.8%、64.4%、43.8%,可见丙会场的出勤率都是最低的,挖掘出新策略:下次视频交流如果申请丙会场,可以批准一个比较小的场地。又比如,本次视频交流参与者出勤率高,视频交流中参与者积极发言,会场气氛比较活跃,讨论也很激烈,历史相同主题的视频交流参与者出勤率都比较高,参与者讨论、发言也都比较积极,挖掘出新策略:以后跟此主题相似的视频交流可以相应增加等。
应当理解的是,本申请所说的视频交流,包括一切通过视频形式进行的至少两个人参加的活动,比如但不限于是视频会议或远程教学等。
上述视频交流的信息处理方法的实施方式,根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到当前视频交流参与者所对应的预定策略,并使用该预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到所述当前视频交流参与者的当前视频交流评价信息。通过这种方式,能够充分利用视频交流的初始化信息以及视频交流过程的信息,并结合不同参与者的角色而采用预定的策略对信息进行处理而得到针对不同角色的不同视频交流评价信息,从而使参与者能够获得跟自己角色对应的视频交流评价信息,既节省了参与者阅读视频交流评价数据的时间,又能得到对自己有帮助的视频交流评价数据,有效提升视频交流的效果。
另外,还通过将收集的信息以及得到的视频交流评价信息进行保存并结合历史视频交流信息综合总结,挖掘出相应视频交流调整或改善的新策略,供相关人员参考、决策,对其策划下次视频交流提供帮助。
请参阅图4,为本申请视频交流的信息处理方法其中一个实施方式中,收集视频交流过程的信息的流程图,包括:
步骤S201:人脸跟踪;
通过人脸跟踪技术获取视频交流过程的实时信息。
步骤S202:是否有第一参与者的人脸不在图像中;
根据人脸跟踪技术检测到的信息,判断是否有第一参与者的人脸不在图像中,其中,第一参与者可以是视频交流的所有参与者中的任何一个。如果有第一参与者的人脸不在图像中,进行步骤S203,否则,继续返回步骤S201进行人脸跟踪。
步骤S203:查找第一参与者的人脸以获取第一身份标识,并记录第一身份标识及人脸不在图像中的第一参与者离开会场的时间;
当人脸跟踪技术检测到有第一参与者的人脸不在图像中时,判定该第一参与者离开会场,查找第一参与者的人脸以获取第一身份标识,记录第一身份标识以及第一参与者离开会场的时间(即开始检测到第一参与者的人脸不在图像中的时间)。继续返回步骤S201进行人脸跟踪。
步骤S204:是否有新人脸出现;
根据人脸跟踪技术的检测结果,判断是否有新的人脸出现,如果有新人脸出现,进一步进行步骤S205,否则,继续返回步骤S201进行人脸跟踪。
步骤S205:新人脸是否与记录的第一身份标识相匹配;
当人脸跟踪技术检测到有新人脸出现时,判断该新人脸是否与已经记录的第一身份标识相匹配,若是,进行步骤S206,否则,进行步骤S207。
步骤S206:记录第一参与者重回会场的时间;
当检测的新人脸与已经记录的第一身份标识相匹配时,判定第一参与者重新回到会场,记录第一参与者重回会场的时间(即检测到新人脸的时间)。
那么该第一参与者离开会场的时间按如下公式计算:Tl=Tb-Ta
其中,Tl是离开会场的时间,Tb是重回会场的时间,Ta是离开会场的时间。
如果直到视频交流结束仍未检测到该第一参与者的人脸,则将该第一参与者的离场时间置为他参加本次视频交流的终止时间PTe。
步骤S207:为新人脸分配身份标识以及记录新人脸的入场时间;
当检测到的新人脸与已经记录的第一身份标识不相匹配,则判定有新的参与者中场加入,为该新人脸分配身份标识,并记录该人的入场时间(即检测到新人脸的时间)。同时该会场的实到人数加1,并初始化此时间为该参会者的起始时间PTs。
请参阅图5,是本申请视频交流的信息处理方法其中一个实施方式中,收集视频交流过程的信息的流程图,包括:
步骤S301:人脸跟踪;
通过人脸跟踪技术实时检测视频交流现场情况。
步骤S302:图像中的人脸数量是否低于预设的数值;
根据人脸跟踪技术的检测结果,判断图像中检测到的人脸数量是否低于预设的数值。这里预设的数值可以根据视频交流的实际情况进行设置,可以是所有参与者人数的一半或70%或者别的。比如视频交流的参与者总共100人,预设的数值可以设定为50,或者别的数值,用以判定是否开始中场休息。当图像中的人脸数量低于预设的数值,判定开始中场休息,进行步骤S303,否则,返回步骤S301继续进行人脸跟踪。
步骤S303:记录当前时间以作为中场休息开始时间;
当图像中的人脸数量低于预设的数值,表示开始中场休息,记录当前时间以作为中场休息开始时间。返回步骤S301继续进行人脸跟踪。
步骤S304:图像中的人脸数量是否达到预设的数值;
根据人脸跟踪技术的检测结果,判断图像中的人脸数量是否达到预设的数值,如果图像中的人脸数量达到预设的数值,判定中场休息时间结束,进行步骤S305,否则,继续返回步骤S301进行人脸跟踪。
步骤S305:记录当前时间以作为中场休息结束时间;
当图像中的人脸数量达到预设的数值时,表示中场休息结束,记录当前时间以作为中场休息结束时间。
中场休息时间按如下公式计算:HTl=HTb-HTa,其中,HTl为中场休息时间,HTb是中场休息结束时间,HTa是中场休息开始时间。
在上述人脸跟踪技术检测人脸的基础上,可以进一步利用表情识别技术检测参与者是否打瞌睡。比如检测到第二参与者的人脸,进一步根据表情识别技术检测该第二参与者的人脸是否打瞌睡,若是,根据打瞌睡的第二参与者的人脸查找第二身份标识,记录第二身份标识以及打瞌睡开始的时间和结束的时间。其中,第二参与者可以是所有视频交流参与者中的任何一个参与者。
打瞌睡时间按照如下公式进行计算:DTl=DTb-DTa,其中,DTl为瞌睡时间,DTb是打瞌睡结束时间,DTa是打瞌睡开始时间。
请参阅图6,是本申请视频交流的信息处理方法其中一个实施方式中,收集视频交流过程的信息的流程图,包括:
步骤S401:语音识别;
通过语音识别技术实时检测视频交流现场的语音信息。
步骤S402:是否有第三参与者的语音;
根据语音识别技术的检测结果,判断是否有第三参与者的语音,若检测有第三参与者的语音,则进行步骤S403,否则,继续返回步骤S401进行语音识别。其中,第三参与者可以是所有视频交流参与者中的任何一个。
步骤S403:根据第三参与者的语音查找到第三身份标识,记录第三身份标识及第三参与者发言开始时间;
当检测到有第三参与者的语音时,说明有第三参与者发言,则根据第三参与者的语音查找到第三身份标识,记录第三身份标识及第三参与者发言开始时间,返回步骤S401继续进行语音识别。
步骤S404:第三参与者的语音是否结束;
根据语音识别的检测结果,判断第三参与者的语音是否结束,若是,进行步骤S405,否则,返回步骤S401继续进行语音识别。
步骤S405:记录第三参与者发言结束时间,并检测当前时间的会场音量;
当通过语音识别检测到第三参与者的语音结束时,记录第三参与者发言结束时间,并检测当前时间的会场音量,以会场音量作为评价第三参与者发言效果的参考。
其中,当第一次检测到第三参与者的发言时,初始化第三参与者的发言次数为1,否则,第三参与者的发言次数加1。
步骤S406:会场音量是否低于预设的第一阈值;
根据检测得到的当前时间的会场音量,判断会场音量是否低于预设的第一阈值,若是,进行步骤S407,否则进行步骤S408。
步骤S407:记录第三参与者的发言效果为一般;
当会场音量低于预设的第一阈值,判定第三参与者的发言引起的反应一般,则记录第三参与者的发言效果为一般。
步骤S408:会场音量是否低于预设的第二阈值;
当会场音量不低于预设的第一阈值,这时,判断会场音量是否低于预设的第二阈值,若是,进行步骤S409,否则,进行步骤S410。
上述的第一阈值以及第二阈值都是预先设定的用于评价发言效果的参考值。其中,第二阈值大于第一阈值,都可以根据实际需要自行设定。
步骤S409:记录第三参与者的发言效果为良;
当会场音量大于第一阈值而低于第二阈值时,记录第三参与者的发言效果为良。
步骤S410:记录第三参与者的发言效果为优;
当会场音量不低于第二阈值时,记录第三参与者的发言效果为优。
以上几个实施方式,只是本申请视频交流处理方法实施方式中收集视频交流过程的信息的几个具体的举例,针对视频交流过程的其他信息也可以采取相同或相似的方式来收集,在此不一一举例。
一般来说,每次视频交流不止一个议题,记录下每个议题的讨论时间可以作为判断此议题重要性的参考。在上述语音识别技术的基础上,进一步结合视频技术,可以获取视频交流开始时间CTs、视频交流结束时间CTe、议题开始时间DTs和议题结束时间DTe,会议持续时间CTd、议题的讨论时间DTd计算公式如下:
CTd=CTe-CTs
DTd=DTe-DTs
已有信息即初始化的参会会场数目、每个会场的应到人数和实到人数信息,其中参会会场数目、每个会场的应到人数不会发生变化,不需要更新。
本次视频交流实际时长,计算公式如下:CTa=CTd-HTl,其中,CTa是本次视频交流实际时长,CTd是本次视频交流持续时间,HTl是本次视频交流中场休息时间。
各会场的出勤率,单个会场的出勤率计算公式如下:
AR=Na/Np
其中,AR是某个会场的出勤率,Na是某个会场的实到人数,Np是某个会场的应到人数。
还可以结合语音识别以及视频技术获取各参会者整体表现信息如:是否缺席;发言次数、时间与效果;有效与会时间,计算公式如下:
PTv=PTs-PTe-HTl-Tl-DTl,其中,PTv为有效与会时间,PTs为参会者的起始时间,PTe为参会者的终止时间,HTl为中场休息时间,Tl为中途离场时间,DTl为开会途中精力不集中(打瞌睡)的时间。
会场出勤率,计算公式如下:
MARn=(MARh×MNn+AR)/(MNn+1)
其中,MARn表示会场最新出勤率,MARh是会场历史出勤率,MNn是会场相应的历史视频交流次数,AR是本次视频交流的会场出勤率。
在上述获得的数据信息的基础上,若从当前视频交流过程的信息中得到的所有会场出勤率、参与者的有效在场时长以及参与者的发言时长与当前视频交流持续时长的比值都大于预设的视频交流效果评估值,则得到至少包括当前视频交流整体效果好的当前视频交流评价信息,否则,得到至少包括当前视频交流效果不好的当前视频交流评价信息。视频交流效果的评估值可以根据视频交流的实际情况进行设定。
若当前视频交流过程的信息中得到的当前视频交流议题持续时间以及议题持续时间内发言总时长都大于预定的感兴趣议题的评估值,则得到至少包括该议题为感兴趣议题的当前视频交流评价信息,否则,得到至少包括该议题为非感兴趣议题的当前视频交流评价信息。
请参阅图7,为本申请视频交流信息处理装置一个实施方式的结构示意图,视频交流信息处理装置700包括分配模块71、获取模块72、查找模块73、处理模块74以及发送模块75,其中:
分配模块71,用于对每个当前视频交流参与者进行身份识别,为每个当前视频交流参与者分配唯一的身份标识及对应的角色标识;
分配模块71自动识别每个视频交流参与者,比如可以是通过指纹识别、虹膜识别、视频分析、语音识别的任一种方式识别视频交流参与者。并为每个视频交流参与者分配唯一的身份标识,比如ID号。以及为每个视频交流参与者分配角色标识,其中,角色标识可以包括是主持人、主讲人、助理、管理员、普通参与者。通常一个视频交流参与者只有一个角色标识,当然,根据需要,也可以同时有两个或两个以上角色标识。
获取模块72,用于获取当前视频交流的初始化信息以及收集当前视频交流过程的信息,并将当前视频交流的初始化信息以及当前视频交流过程的信息发送给处理模块74;
获取模块72通过初始化当前视频交流系统以获取当前视频交流初始化信息。其中,视频交流的初始化信息包括但不限于是:会场数目信息,比如本次视频交流有3个会场;每个会场应到的人数信息,比如每个会场应到3人;实到人数信息,比如甲、乙、丙会场的实到人数分别为2、2、1等;未到场人信息,比如甲会场王某、乙会场丁某以及丙会场张某、李某未到场等等;当前视频交流开始的时间,比如当前视频交流开始时间为9:30;每个当前视频交流参与者入场的初始时间信息,比如可以设定在视频交流开始时间之前入场的参与者入场的初始时间都设定为视频交流开始时间,而在视频交流开始时间之后入场的参与者入场的初始时间设定为该参与者实际入场时间;每个参与者信息,比如参与者的联系方式,可以包括参与者的手机号、QQ号、微信号码以及电子邮箱等等。
这些视频交流初始化信息会实时的输出给相关人员比如视频交流的秘书或者主持人,以使相关人员可以根据实际情况采取相应的行动。比如秘书可以及时的通知未到场的人员及时入场,或者主持人也可以在未到场参与者比较多的情况下适当将视频交流的开始时间延后等。
获取模块72还通过音频以及视频结合的方式获取视频交流过程的信息。比如通过人脸识别及跟踪技术与语音识别技术相结合的方式实时获取视频交流现场的信息。其中,视频交流过程的信息包括但不限于是:视频交流进行中的实时信息比如:会场情况信息、参与者状态信息、视频交流状态信息等。
会场情况信息包括但不限于是:
视频交流的中途休息情况信息,比如本次视频交流中途休息了两次,每次休息15分钟;
视频交流的中途人员离场以及离场时间信息,比如视频交流中途甲会场的王某离开会场20分钟;
视频交流的中途人员入场以及入场时间信息,比如张某在视频交流中途进入丙会场等等。当然,为了记录更为详细的信息,还可以包括具体的时间点,比如张某在15点43分进入丙会场。
参与者状态信息包括但不限于:
参与者精力不集中的状态信息,包括参与者讨论、低头、瞌睡、玩手机的状态信息,比如乙会场的李某打瞌睡半小时;
参与者发言次数以及发言时长信息,比如丙会场的张某发言3次,每次发言2分钟,合计6分钟;
每次发言后其他参与者的反应信息,比如丙会场的张某A发言有2次引起大家鼓掌等。
获取模块72将以上获取得到的信息发送给处理模块74进行处理。
查找模块73用于根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到当前视频交流参与者所对应的预定策略,并将预定策略发送给处理模块74;
通常情况下,每个视频交流参与者因为角色不一样,其关注的视频交流相关的信息不一样。例如会场管理员会关注会场出勤率,但不会对各参与者的信息感兴趣;隐私,如A参与者关心自己的视频交流出勤率及表现情况,但不会关注B参与者的相关信息,也不愿意自己的视频交流信息被其他参与者获知。因此,可以设定不同的角色标识对应不同的视频交流信息处理的策略。
查找模块73根据当前视频交流参与者的角色标识,通过查找可以得到当前视频交流参与者所对应的预定策略,并将查找得到的预定策略发送给处理模块74,以使处理模块74按照预定策略对视频交流的信息进行处理。
处理模块74用于使用查找得到的预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到当前视频交流参与者的当前视频交流评价信息,并将当前视频交流参与者的当前视频交流评价信息发送给发送模块75;
处理模块74使用查找得到的预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到针对视频交流参与者的角色的不同的视频交流评价信息。
其中,视频交流评价信息包括但不限于是以下视频交流评价信息中的至少一项:
适于视频交流助理查看的至少包括视频交流实时信息、视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息,比如本次视频交流有甲、乙、丙3个会场,每个会场应到人数3人,每个会场实到人数分别为2人,每个会场还有1人未入会;本次视频交流实际时长2小时,中途休息0.5小时;甲、乙会场出勤率分别为100%、丙会场出勤率66.7%;甲会场的王某在场时间2小时,有效在场时间1.5小时(其中有效在场时间为在场总时间减去精力不集中的时间),其他人在场时间\有效在场时间都为2小时;乙会场的李某在场时间2小时,有效在场时间1.5小时,其他人在场时间\有效在场时间都为2小时;丙会场的2人在场时间\有效在场时间分别都为2小时;大家对议题“技术方案”和“产品前景”比较感兴趣等,助理可以将这样的视频交流评价信息通过口头或书面形式向领导汇报;
适于视频交流普通参与者查看的至少包括当前视频交流整体信息及普通参与者自己的整体表现信息的视频交流评价信息,比如针对普通参与者王某的视频交流评价信息可以包括:本次视频交流进行2.5小时,有效时长2小时,中场休息0.5小时;王某打瞌睡0.5小时,王某发言8次以及发言的相应内容,大家为王某鼓掌6次;大家对“技术方案”讨论激烈,“产品前景”引起的欢笑和鼓掌最多等;
适于视频交流主讲人/主持人查看的至少包括当前视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息,如本次视频交流参与者出勤率高,中途乙会场有1人入会,甲会场的王某离开会场0.5小时,乙会场的李某打瞌睡0.5小时,丙会场的张某发言积极,而且发言后得到大家的一致认同,大家对“技术方案”这一话题的讨论非常激烈;大家对议题“技术方案”和“产品前景”比较感兴趣等;
适于管理员查看的至少包括会场出勤率信息的视频交流评价信息,如本次视频交流甲乙会场出勤率分别为100%,丙会场出勤率66.7%;
以上只是本实施方式根据视频交流角色的不同,生成相应不同的视频交流评价信息的举例,在实际应用过程中,可以根据需要设定策略,从而使生成的每个角色对应的视频交流评价信息所包含的内容能够满足视频交流参与者的实际需求。
处理模块74将通过处理得到的视频交流评价信息输出给发送模块75以使发送模块75将视频交流评价信息发送给视频交流参与者。
发送模块75用于将所述得到的当前视频交流参与者的当前视频交流评价信息发送给当前视频交流参与者。
发送模块75通过移动终端(如手机、Pad)、电子邮件、即时通讯工具(比如QQ、MSN等)的至少一种方式将得到的当前视频交流参与者的当前视频交流评价信息发送给当前视频交流参与者。
视频交流参与者可以通过会控触摸屏、移动终端如手机、电子邮箱等查看视频交流评价信息(包括文本/图片/视频/语音等任意形式的视频交流评价信息)。
上述实施方式提到的视频交流,包括一切通过视频形式进行的至少两个人参加的活动,比如但不限于是视频会议或远程教学等。
其中,本申请视频交流信息处理装置的其中一个实施方式中,获取模块72具体用于通过人脸跟踪技术检测到第一参与者的人脸不在图像中时,查找第一参与者的人脸以获取第一身份标识,并记录第一身份标识及人脸不在图像中的第一参与者离开会场的时间。
获取模块72还用于通过人脸跟踪技术检测到有新人脸出现时,查找新人脸是否与记录的第一身份标识相匹配,若是,记录第一参与者重回会场的时间,若否,通知分配模块71为新人脸分配身份标识以及记录新人脸的入场的时间。
获取模块72还用于当通过人脸跟踪技术检测到图像中的人脸数量低于预设的数值时,记录当前时间以作为中场休息开始时间;当通过人脸跟踪技术再次检测到图像中的人脸数量达到预设的数值时,记录当前时间以作为中场休息结束时间。
在本申请视频交流信息处理装置的其中一个实施方式中,获取模块72具体用于通过人脸跟踪技术检测到第二参与者的人脸,并进一步根据表情识别技术检测第二参与者的人脸是否打瞌睡,若是,则根据打瞌睡的第二参与者的人脸查找到相应的第二身份标识,记录第二身份标识以及打瞌睡开始时间和结束时间。
在本申请视频交流信息处理装置的其中一个实施方式中,获取模块72具体用于当通过语音识别技术检测到有第三参与者的语音时,根据第三参与者的语音查找到第三身份标识,记录第三身份标识及第三参与者发言开始时间。
获取模块72还用于当通过语音识别技术检测到第三参与者的语音结束,记录第三参与者发言结束时间,并检测当前时间的会场音量。
进一步地,获取模块72还用于当会场音量低于预设的第一阈值,记录第三参与者的发言效果为一般;当会场音量大于预设的第一阈值但小于预设的第二阈值,记录第三参与者的发言效果为良;当会场音量大于预设的第二阈值,记录第三参与者的发言效果为优,其中,第二阈值大于第一阈值。
更进一步地,获取模块72还用于当第一次检测到第三参与者的发言时,初始化第三参与者的发言次数为1,否则,第三参与者的发言次数加1。
在本申请视频交流信息处理装置的其中一个实施方式中,获取模块72用于通过初始化当前视频交流系统以获取当前视频交流的至少包括会场数目、每个会场的应到人数信息、实到人数信息、未到场人数信息、当前视频交流开始的时间信息、每个当前视频交流参与者入场的初始时间信息以及每个参与者信息的初始化信息。
在本申请视频交流信息处理装置的其中一个实施方式中,发送模块75具体用于通过移动终端、电子邮件、即时通讯工具的至少一种方式将得到的当前视频交流参与者的当前视频交流评价信息发送给当前视频交流参与者。
请参与图8,为本申请视频交流系统一实施方式的结构示意图,视频交流系统800包括:
处理器(processor)810,通信接口(Communications Interface)820,存储器(memory)830,通信总线840以及监测器850,处理器810、存储器830以及监测器850都与电源相连接,其中:
处理器810,通信接口820,存储器830通过总线840完成相互间的通信。
通信接口820,用于与网元通信,比如虚拟机管理中心、共享存储等。
处理器810,用于根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到当前视频交流参与者所对应的预定策略,使用查找得到的预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到当前视频交流参与者的当前视频交流评价信息,将视频交流评价信息发送给视频交流参与者。
处理器810可能是一个中央处理器CPU,或者是特定集成电路ASIC(Application Specific Integrated Circuit),或者是被配置成实施本申请实施方式的一个或多个集成电路。
监测器850,用于对每个当前视频交流参与者进行身份识别,为每个当前视频交流参与者分配唯一的身份标识及角色标识,并通过视频或音频技术收集视频交流过程的信息,并将收集得到的视频交流过程的信息存储于存储器830;
存储器830用于存储视频交流过程的信息以及相关的参数设置信息,若本申请实施方式采用软件程序实现,那么存储器830还用于存储处理器810需要执行的软件程序832。
存储器830可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
处理器810进一步用于执行程序832。
具体地,程序832可以包括程序代码,所述程序代码包括计算机操作指令。
程序832具体可以包括:
分配模块71用于对每个当前视频交流参与者进行身份识别,为每个当前视频交流参与者分配唯一的身份标识及角色标识;
获取模块72用于获取当前视频交流的初始化信息以及收集当前视频交流过程的信息,并将当前视频交流的初始化信息以及当前视频交流过程的信息发送给处理模块74;
查找模块73用于根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到当前视频交流参与者所对应的预定策略,并将预定策略发送给处理模块74;
处理模块74用于使用查找得到的预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到当前视频交流参与者的当前视频交流评价信息,并将当前视频交流参与者的当前视频交流评价信息发送给发送模块75;
发送模块75用于将得到的当前视频交流参与者的当前视频交流评价信息发送给当前视频交流参与者。
程序832中各模块的具体实现可以参见图7所示实施方式中的相应模块,在此不赘述。
通过上述实施方式的阐述,本申请提供的视频交流的信息处理方法以及装置的实施方式,根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到当前视频交流参与者所对应的预定策略,并使用该预定策略对初始化信息以及当前视频交流过程的信息进行汇总处理,得到所述当前视频交流参与者的当前视频交流评价信息。通过这种方式,能够充分利用视频交流的初始化信息以及视频交流过程的信息,并结合不同参与者的角色而采用预定的策略对信息进行处理而得到针对不同角色的不同视频交流评价信息,从而使参与者能够获得跟自己角色对应的视频交流评价信息,既节省了参与者阅读视频交流评价数据的时间,又能得到对自己有帮助的视频交流评价数据,有效提升视频交流的效果。
另外,还通过将收集的信息以及得到的视频交流评价信息进行保存并结合历史视频交流信息综合总结,挖掘出相应视频交流调整或改善的新策略,供相关人员参考、决策,对其策划下次视频交流提供帮助。
在本申请所提供的几个实施方式中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的功能模块可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施方式中的各功能模块可以集成在一个处理单元中,也可以是各个功能模块单独物理存在,也可以两个或两个以上功能模块集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (26)
1.一种视频交流的信息处理方法,其特征在于,包括:
对每个当前视频交流参与者进行身份识别,为每个当前视频交流参与者分配唯一的身份标识及角色标识;
获取当前视频交流的初始化信息以及收集当前视频交流过程的信息;
根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到所述当前视频交流参与者所对应的预定策略;
使用所述查找得到的预定策略对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到所述当前视频交流参与者的当前视频交流评价信息;
将所述得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者。
2.根据权利要求1所述的方法,其特征在于,所述收集当前视频交流过程的信息的步骤包括:通过人脸跟踪技术检测到有第一参与者的人脸不在图像中时,查找所述第一参与者的人脸以获取第一身份标识,并记录所述第一身份标识及人脸不在图像中的第一参与者离开会场的时间。
3.根据权利要求2所述的方法,其特征在于,所述收集当前视频交流过程的信息的步骤还包括:通过人脸跟踪技术检测到有新人脸出现时,查找所述新人脸是否与记录的所述第一身份标识相匹配,若是,记录所述第一参与者重回会场的时间,若否,为所述新人脸分配身份标识以及记录所述新人脸的入场的时间。
4.根据权利要求2所述的方法,其特征在于,所述收集当前视频交流过程的信息的步骤包括:当通过人脸跟踪技术检测到图像中的人脸数量低于预设的数值时,记录当前时间以作为中场休息开始时间;当通过人脸跟踪技术再次检测到图像中的人脸数量达到所述预设的数值时,记录当前时间以作为中场休息结束时间。
5.根据权利要求1所述的方法,其特征在于,所述收集当前视频交流过程的信息的步骤包括:通过人脸跟踪技术检测到第二参与者的人脸,并进一步根据表情识别技术检测所述第二参与者的人脸是否打瞌睡,若是,则根据所述打瞌睡的第二参与者的人脸查找到第二身份标识,记录所述第二身份标识以及所述打瞌睡开始时间和结束时间。
6.根据权利要求1所述的方法,其特征在于,所述收集当前视频交流过程的信息的步骤包括:当通过语音识别技术检测到有第三参与者的语音时,根据所述第三参与者的语音查找到第三身份标识,记录所述第三身份标识及所述第三参与者发言开始时间。
7.根据权利要求6所述的方法,其特征在于,所述收集当前视频交流过程的信息的步骤还包括:当通过语音识别技术检测到所述第三参与者的语音结束,记录所述第三参与者发言结束时间,并检测当前时间的会场音量。
8.根据权利要求7所述的方法,其特征在于,所述检测当前时间的会场音量的步骤之后,还包括:当所述会场音量低于预设的第一阈值,记录所述第三参与者的发言效果为一般;当所述会场音量大于预设的第一阈值但小于预设的第二阈值,记录所述第三参与者的发言效果为良;当所述会场音量大于预设的第二阈值,记录所述第三参与者的发言效果为优,其中,所述第二阈值大于所述第一阈值。
9.根据权利要求6所述的方法,其特征在于,所述收集当前视频交流过程的信息的步骤还包括:当第一次检测到所述第三参与者的发言时,初始化所述第三参与者的发言次数为1,否则,所述第三参与者的发言次数加1。
10.根据权利要求1所述的方法,其特征在于,所述获取当前视频交流的初始化信息的步骤包括:通过初始化当前视频交流系统以获取当前视频交流的至少包括会场数目、每个会场的应到人数信息、实到人数信息、未到场人数信息、当前视频交流开始的时间信息、每个当前视频交流参与者入场的初始时间信息以及每个参与者信息的初始化信息。
11.根据权利要求1所述的方法,其特征在于,所述将得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者的步骤包括:通过移动终端、电子邮件、即时通讯工具的至少一种方式将所述得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者。
12.根据权利要求1所述的方法,其特征在于,所述为每个当前视频交流参与者分配唯一的身份标识及角色标识的步骤包括:为每个当前视频交流参与者分配唯一的身份标识及主持人、主讲人、助理、管理员、普通参与者中的至少一种角色标识。
13.根据权利要求12所述的方法,其特征在于,所述使用查找得到的预定策略对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到所述当前视频交流参与者的当前视频交流评价信息的步骤包括下列获取视频交流评价信息中的至少其中一项:使用所述查找得到的主持人/主讲人的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括当前视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息;使用所述查找得到的助理的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括视频交流实时信息、视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息;使用所述查找得到的普通参与者的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括当前视频交流整体信息及所述普通参与者自己的整体表现信息的视频交流评价信息;使用所述查找得到的管理员的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括会场出勤率信息的视频交流评价信息。
14.一种视频交流的信息处理装置,其特征在于,包括分配模块、获取模块、查找模块、处理模块以及发送模块,其中:
所述分配模块用于对每个当前视频交流参与者进行身份识别,为所述每个当前视频交流参与者分配唯一的身份标识及角色标识;
所述获取模块用于获取当前视频交流的初始化信息以及收集当前视频交流过程的信息,并将所述当前视频交流的初始化信息以及所述当前视频交流过程的信息发送给所述处理模块;
所述查找模块用于根据当前视频交流参与者的角色标识和预定策略之间的关联关系,查找并得到所述当前视频交流参与者所对应的预定策略,并将所述预定策略发送给所述处理模块;
所述处理模块用于使用所述查找得到的预定策略对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到所述当前视频交流参与者的当前视频交流评价信息,并将所述当前视频交流参与者的当前视频交流评价信息发送给所述发送模块;
所述发送模块用于将所述得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者。
15.根据权利要求14所述的装置,其特征在于,所述获取模块具体用于通过人脸跟踪技术检测到第一参与者的人脸不在图像中时,查找所述第一参与者的人脸以获取第一身份标识,并记录所述第一身份标识及人脸不在图像中的第一参与者离开会场的时间。
16.根据权利要求15所述的装置,其特征在于,所述获取模块还用于通过人脸跟踪技术检测到有新人脸出现时,查找所述新人脸是否与记录的所述第一身份标识相匹配,若是,记录所述第一参与者重回会场的时间,若否,通知所述分配模块为所述新人脸分配身份标识以及记录所述新人脸的入场的时间。
17.根据权利要求15所述的装置,其特征在于,所述获取模块还用于当通过人脸跟踪技术检测到图像中的人脸数量低于预设的数值时,记录当前时间以作为中场休息开始时间;当通过人脸跟踪技术再次检测到图像中的人脸数量达到所述预设的数值时,记录当前时间以作为中场休息结束时间。
18.根据权利要求14所述的装置,其特征在于,所述获取模块具体用于通过人脸跟踪技术检测到第二参与者的人脸,并进一步根据表情识别技术检测所述第二参与者的人脸是否打瞌睡,若是,则根据所述打瞌睡的第二参与者的人脸查找到相应的第二身份标识,记录所述第二身份标识以及所述打瞌睡开始时间和结束时间。
19.根据权利要求14所述的装置,其特征在于,所述获取模块具体用于当通过语音识别技术检测到有第三参与者的语音时,根据所述第三参与者的语音查找到第三身份标识,记录所述第三身份标识及所述第三参与者发言开始时间。
20.根据权利要求19所述的装置,其特征在于,所述获取模块还用于当通过语音识别技术检测到所述第三参与者的语音结束,记录所述第三参与者发言结束时间,并检测当前时间的会场音量。
21.根据权利要求20所述的装置,其特征在于,所述获取模块还用于当所述会场音量低于预设的第一阈值,记录所述第三参与者的发言效果为一般;当所述会场音量大于预设的第一阈值但小于预设的第二阈值,记录所述第三参与者的发言效果为良;当所述会场音量大于预设的第二阈值,记录所述第三参与者的发言效果为优,其中,所述第二阈值大于所述第一阈值。
22.根据权利要求19所述的装置,其特征在于,所述获取模块还用于当第一次检测到所述第三参与者的发言时,初始化所述第三参与者的发言次数为1,否则,所述第三参与者的发言次数加1。
23.根据权利要求14所述的装置,其特征在于,所述获取模块用于通过初始化当前视频交流系统以获取当前视频交流的至少包括会场数目、每个会场的应到人数信息、实到人数信息、未到场人数信息、当前视频交流开始的时间信息、每个当前视频交流参与者入场的初始时间信息以及每个参与者信息的初始化信息。
24.根据权利要求14所述的装置,其特征在于,所述发送模块具体用于通过移动终端、电子邮件、即时通讯工具的至少一种方式将所述得到的所述当前视频交流参与者的当前视频交流评价信息发送给所述当前视频交流参与者。
25.根据权利要求14所述的装置,其特征在于,所述分配模块具体用于对每个当前视频交流参与者进行身份识别,为每个当前视频交流参与者分配唯一的身份标识及主持人、主讲人、助理、管理员、普通参与者中的至少一种角色标识。
26.根据权利要求25所述的装置,其特征在于,所述处理模块具体用于使用所述查找得到的预定策略对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到下列视频交流评价信息中的至少其中一项:使用所述查找得到的主持人/主讲人的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括当前视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息;使用所述查找得到的助理的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括视频交流实时信息、视频交流整体信息、各参与者整体表现信息、视频交流议题及感兴趣议题信息的视频交流评价信息;使用所述查找得到的普通参与者的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括当前视频交流整体信息及所述普通参与者自己的整体表现信息的视频交流评价信息;使用所述查找得到的管理员的预定策略,对所述初始化信息以及所述当前视频交流过程的信息进行汇总处理,得到至少包括会场出勤率信息的视频交流评价信息。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210568135.9A CN103903074B (zh) | 2012-12-24 | 2012-12-24 | 一种视频交流的信息处理方法及装置 |
PCT/CN2013/083166 WO2014101472A1 (zh) | 2012-12-24 | 2013-09-10 | 一种视频交流的信息处理方法及装置 |
US14/743,089 US9350946B2 (en) | 2012-12-24 | 2015-06-18 | Information processing method and apparatus for video communication |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210568135.9A CN103903074B (zh) | 2012-12-24 | 2012-12-24 | 一种视频交流的信息处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103903074A true CN103903074A (zh) | 2014-07-02 |
CN103903074B CN103903074B (zh) | 2018-10-30 |
Family
ID=50994384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210568135.9A Active CN103903074B (zh) | 2012-12-24 | 2012-12-24 | 一种视频交流的信息处理方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9350946B2 (zh) |
CN (1) | CN103903074B (zh) |
WO (1) | WO2014101472A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106210607A (zh) * | 2016-08-31 | 2016-12-07 | 刘新建 | 一种会议现场记录装置以及实现方法 |
CN106782545A (zh) * | 2016-12-16 | 2017-05-31 | 广州视源电子科技股份有限公司 | 一种将音视频数据转化成文字记录的系统和方法 |
CN108537508A (zh) * | 2018-03-30 | 2018-09-14 | 上海爱优威软件开发有限公司 | 会议记录方法及系统 |
CN111355919A (zh) * | 2018-12-24 | 2020-06-30 | 中移(杭州)信息技术有限公司 | 一种通信会话控制方法及装置 |
CN112232101A (zh) * | 2019-07-15 | 2021-01-15 | 北京正和思齐数据科技有限公司 | 一种用户沟通状态的评价方法、装置及系统 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10528840B2 (en) * | 2015-06-24 | 2020-01-07 | Stryker Corporation | Method and system for surgical instrumentation setup and user preferences |
US10341397B2 (en) * | 2015-08-12 | 2019-07-02 | Fuji Xerox Co., Ltd. | Non-transitory computer readable medium, information processing apparatus, and information processing system for recording minutes information |
CN105205481A (zh) * | 2015-11-03 | 2015-12-30 | 浙江中烟工业有限责任公司 | 一种虹膜识别设备 |
CN105577517A (zh) * | 2015-12-17 | 2016-05-11 | 掌赢信息科技(上海)有限公司 | 一种短视频消息的发送方法及电子设备 |
GB201600907D0 (en) * | 2016-01-18 | 2016-03-02 | Dolby Lab Licensing Corp | Replaying content of a virtual meeting |
CN107666432A (zh) * | 2016-07-29 | 2018-02-06 | 京东方科技集团股份有限公司 | 进行通知的方法、装置和系统 |
US11114186B2 (en) | 2017-08-10 | 2021-09-07 | Nuance Communications, Inc. | Automated clinical documentation system and method |
US11316865B2 (en) | 2017-08-10 | 2022-04-26 | Nuance Communications, Inc. | Ambient cooperative intelligence system and method |
US11250382B2 (en) | 2018-03-05 | 2022-02-15 | Nuance Communications, Inc. | Automated clinical documentation system and method |
US11515020B2 (en) | 2018-03-05 | 2022-11-29 | Nuance Communications, Inc. | Automated clinical documentation system and method |
JP7165207B2 (ja) * | 2018-05-01 | 2022-11-02 | ブラックソーン セラピューティクス インコーポレイテッド | 機械学習ベースの診断分類器 |
US11093630B2 (en) * | 2018-07-12 | 2021-08-17 | International Business Machines Corporation | Determining viewable screen content |
US11043207B2 (en) | 2019-06-14 | 2021-06-22 | Nuance Communications, Inc. | System and method for array data simulation and customized acoustic modeling for ambient ASR |
US11227679B2 (en) | 2019-06-14 | 2022-01-18 | Nuance Communications, Inc. | Ambient clinical intelligence system and method |
US11216480B2 (en) | 2019-06-14 | 2022-01-04 | Nuance Communications, Inc. | System and method for querying data points from graph data structures |
US11531807B2 (en) | 2019-06-28 | 2022-12-20 | Nuance Communications, Inc. | System and method for customized text macros |
US11670408B2 (en) | 2019-09-30 | 2023-06-06 | Nuance Communications, Inc. | System and method for review of automated clinical documentation |
CN112270918A (zh) * | 2020-10-22 | 2021-01-26 | 北京百度网讯科技有限公司 | 信息处理方法、装置、系统、电子设备及存储介质 |
US11222103B1 (en) | 2020-10-29 | 2022-01-11 | Nuance Communications, Inc. | Ambient cooperative intelligence system and method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1517562A2 (en) * | 2003-09-19 | 2005-03-23 | Sony Corporation | Video coding including auxiliary information for performing and tracking successive processing steps like editing, splicing, fingerprinting |
US7013354B1 (en) * | 1998-10-05 | 2006-03-14 | Canon Kabushiki Kaisha | Channel protocol for IEEE 1394 data transmission |
CN101055561A (zh) * | 2006-04-11 | 2007-10-17 | 富士施乐株式会社 | 电子会议辅助方法以及电子会议系统中的信息终端设备 |
CN101291239A (zh) * | 2008-05-20 | 2008-10-22 | 华为技术有限公司 | 提升会议效果的方法和装置 |
CN102065266A (zh) * | 2009-11-11 | 2011-05-18 | 华为终端有限公司 | 突出视频会议现场氛围的方法和装置 |
US20110161836A1 (en) * | 2009-12-31 | 2011-06-30 | Ruicao Mu | System for processing and synchronizing large scale video conferencing and document sharing |
CN102572356A (zh) * | 2012-01-16 | 2012-07-11 | 华为技术有限公司 | 记录会议的方法和会议系统 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1110767C (zh) | 1999-11-12 | 2003-06-04 | 成都银晨网讯科技有限公司 | 面像识别门禁和考勤系统 |
CN2558017Y (zh) | 2002-07-06 | 2003-06-25 | 新乡市恒锐高科有限公司 | 视频考勤机 |
CN1747563A (zh) | 2004-09-06 | 2006-03-15 | 深圳市国宏科技有限公司 | 学生电子考勤及实时短信发送系统 |
CN1780344A (zh) | 2004-11-22 | 2006-05-31 | 詹胜智 | 电信系统自动统计人数方法 |
CN1797441B (zh) | 2004-12-21 | 2010-09-01 | 厦门雅迅网络股份有限公司 | 一种公交车客流量实时统计的方法 |
CN100447820C (zh) | 2005-08-04 | 2008-12-31 | 浙江大学 | 基于立体视觉的公交客流统计方法及其系统 |
CN1959742A (zh) | 2005-11-04 | 2007-05-09 | 周春光 | 嵌入式人像考勤机 |
CN101030244B (zh) | 2006-03-03 | 2010-08-18 | 中国科学院自动化研究所 | 基于人体生理图像中排序测度特征的自动身份识别方法 |
CN1838181A (zh) | 2006-04-18 | 2006-09-27 | 佛山市智精电子技术工程有限公司 | 一种身份证/指纹识别考勤及门禁/人事管理系统 |
CN1932843A (zh) | 2006-09-11 | 2007-03-21 | 江苏科技大学 | 基于嵌入式系统的分布式人数统计系统 |
CN100583166C (zh) | 2007-07-09 | 2010-01-20 | 北京邮电大学 | 基于移动终端的考勤管理系统及其实现方法 |
CN100596192C (zh) | 2007-09-17 | 2010-03-24 | 深圳先进技术研究院 | 一种基于视频的智能数人系统及其处理方法 |
CN101237704A (zh) | 2008-02-28 | 2008-08-06 | 中兴通讯股份有限公司 | 一种基于移动通信技术的考勤方法和考勤系统 |
CN101246604A (zh) | 2008-03-17 | 2008-08-20 | 时晓明 | 采用射频识别技术的全自动考勤和目标监管的方法及系统 |
CN101510990A (zh) | 2009-02-27 | 2009-08-19 | 深圳华为通信技术有限公司 | 一种处理远程呈现会议用户信号的方法及系统 |
CN101887538A (zh) | 2009-05-14 | 2010-11-17 | 北京闻言科技有限公司 | 一种按周期统计考勤结果并高效输出的技术 |
CN101794465B (zh) | 2010-04-02 | 2015-05-20 | 中兴通讯股份有限公司 | 一种考勤数据的发送方法及装置 |
CN102243772A (zh) | 2010-05-14 | 2011-11-16 | 镇江华扬信息科技有限公司 | 基于射频卡会议考勤签到系统 |
CN201853270U (zh) | 2010-12-03 | 2011-06-01 | 上海红格电子科技有限公司 | 人脸识别考勤门禁系统 |
CN202025355U (zh) | 2010-12-22 | 2011-11-02 | 武汉安通科技产业发展有限公司 | 电子会议智能识别签到系统 |
CN102647577A (zh) | 2011-02-16 | 2012-08-22 | 鸿富锦精密工业(深圳)有限公司 | 远程会议管理系统及管理方法 |
CN202043281U (zh) | 2011-04-02 | 2011-11-16 | 上海照恒光电技术有限公司 | 自动签到系统 |
CN202084078U (zh) | 2011-06-22 | 2011-12-21 | 杨松 | 一种自动签到系统 |
-
2012
- 2012-12-24 CN CN201210568135.9A patent/CN103903074B/zh active Active
-
2013
- 2013-09-10 WO PCT/CN2013/083166 patent/WO2014101472A1/zh active Application Filing
-
2015
- 2015-06-18 US US14/743,089 patent/US9350946B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7013354B1 (en) * | 1998-10-05 | 2006-03-14 | Canon Kabushiki Kaisha | Channel protocol for IEEE 1394 data transmission |
EP1517562A2 (en) * | 2003-09-19 | 2005-03-23 | Sony Corporation | Video coding including auxiliary information for performing and tracking successive processing steps like editing, splicing, fingerprinting |
CN101055561A (zh) * | 2006-04-11 | 2007-10-17 | 富士施乐株式会社 | 电子会议辅助方法以及电子会议系统中的信息终端设备 |
CN101291239A (zh) * | 2008-05-20 | 2008-10-22 | 华为技术有限公司 | 提升会议效果的方法和装置 |
CN102065266A (zh) * | 2009-11-11 | 2011-05-18 | 华为终端有限公司 | 突出视频会议现场氛围的方法和装置 |
US20110161836A1 (en) * | 2009-12-31 | 2011-06-30 | Ruicao Mu | System for processing and synchronizing large scale video conferencing and document sharing |
CN102572356A (zh) * | 2012-01-16 | 2012-07-11 | 华为技术有限公司 | 记录会议的方法和会议系统 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106210607A (zh) * | 2016-08-31 | 2016-12-07 | 刘新建 | 一种会议现场记录装置以及实现方法 |
CN106782545A (zh) * | 2016-12-16 | 2017-05-31 | 广州视源电子科技股份有限公司 | 一种将音视频数据转化成文字记录的系统和方法 |
WO2018107605A1 (zh) * | 2016-12-16 | 2018-06-21 | 广州视源电子科技股份有限公司 | 一种将音视频数据转化成文字记录的系统和方法 |
CN106782545B (zh) * | 2016-12-16 | 2019-07-16 | 广州视源电子科技股份有限公司 | 一种将音视频数据转化成文字记录的系统和方法 |
CN108537508A (zh) * | 2018-03-30 | 2018-09-14 | 上海爱优威软件开发有限公司 | 会议记录方法及系统 |
CN111355919A (zh) * | 2018-12-24 | 2020-06-30 | 中移(杭州)信息技术有限公司 | 一种通信会话控制方法及装置 |
CN111355919B (zh) * | 2018-12-24 | 2021-05-25 | 中移(杭州)信息技术有限公司 | 一种通信会话控制方法及装置 |
CN112232101A (zh) * | 2019-07-15 | 2021-01-15 | 北京正和思齐数据科技有限公司 | 一种用户沟通状态的评价方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
US9350946B2 (en) | 2016-05-24 |
CN103903074B (zh) | 2018-10-30 |
WO2014101472A1 (zh) | 2014-07-03 |
US20150288924A1 (en) | 2015-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103903074A (zh) | 一种视频交流的信息处理方法及装置 | |
US10924339B2 (en) | Intelligent agent features for wearable personal communication nodes | |
CN102196238B (zh) | 传送管理系统、传送管理方法、以及传送系统 | |
CN102196237B (zh) | 传送终端、传送方法、传送系统 | |
CN101395590A (zh) | 用于在协作会话期间定位专家的方法和装置 | |
CN103098042A (zh) | 用于社交集合的系统和方法 | |
JP2014146332A (ja) | メッセンジャーチャットウィンドウを介したコンテンツ多重送信装置、方法およびコンピュータ読み取り可能な記録媒体 | |
CN107756395A (zh) | 智能机器人的控制系统、方法和装置 | |
CN102341822A (zh) | 具有对话和会议环境的通信应用 | |
CN101715102A (zh) | 在点对点和多点音频/视频会议期间显示动态呼叫者身份 | |
CN103731338A (zh) | 发言处理装置以及发言处理方法 | |
JP2007282072A (ja) | 電子会議システム、電子会議支援プログラム、電子会議支援方法、電子会議システムにおける情報端末装置 | |
CN104038354A (zh) | 一种基于智能手机的会议交互方法 | |
CN106301811A (zh) | 实现多媒体会议的方法及装置 | |
US20140022402A1 (en) | Method and apparatus for automatic capture of multimedia information | |
JP2011511346A (ja) | ソーシャルネットワーキングサービス(sns)を自動的に作成するための方法、携帯電子機器、システム及びコンピュータプログラム | |
CN107835120A (zh) | 用于提供目标好友的发布信息的方法与设备 | |
CN105376515A (zh) | 用于视频通讯的通讯信息的呈现方法、装置及系统 | |
CN112328136A (zh) | 评论信息的显示方法、装置、设备及存储介质 | |
CN107392653A (zh) | 一种电子名片推送方法及其装置、用户终端 | |
CN110601891B (zh) | 一种报警处理的方法以及相关装置 | |
CN206340065U (zh) | 一种基于人脸识别技术的失踪人口寻找系统 | |
WO2015096678A1 (zh) | 信息交互方法、装置及服务器 | |
CN105389318A (zh) | 一种信息处理方法及电子设备 | |
US20120221635A1 (en) | Knowledge Base Broadcasting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |