CN109561273A - 识别视频会议发言人的方法和装置 - Google Patents
识别视频会议发言人的方法和装置 Download PDFInfo
- Publication number
- CN109561273A CN109561273A CN201811238385.XA CN201811238385A CN109561273A CN 109561273 A CN109561273 A CN 109561273A CN 201811238385 A CN201811238385 A CN 201811238385A CN 109561273 A CN109561273 A CN 109561273A
- Authority
- CN
- China
- Prior art keywords
- face
- spokesman
- view
- identity information
- view networked
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Abstract
本发明实施例提供了一种识别视频会议发言人的方法及装置,应用于视联网中。其中方法包括:人工智能服务器接收参加视频会议的发言方视联网终端,经由所述视联网服务器发送的视频流,所述视频流由所述发言方视联网终端采集发言人的视频得到;人工智能服务器对所述视频流进行识别,得到所述发言人的身份信息;人工智能服务器将所述发言人的身份信息返回至所述视联网服务器,并经由所述视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。本发明实施例可以通过人工智能服务器自动地、实时地识别发言人的身份信息,即使切换发言人也能及时地识别出切换后的发言人的身份信息,过程更加简便,识别更加准确。
Description
技术领域
本发明涉及视联网技术领域,特别是涉及一种识别视频会议发言人的方法和一种识别视频会议发言人的装置。
背景技术
随着网络科技的快速发展,视频会议、视频教学、可视电话等双向通信在用户的生活、工作、学习等方面广泛普及。
视频会议,是指位于两个或多个地点的人们,通过通信设备和网络,进行面对面交谈的会议。根据参会地点数目不同,视频会议可分为点对点会议和多点会议。日常生活中的个人,对谈话内容安全性、会议质量、会议规模没有要求,可以采用如腾讯QQ这样的视频软件来进行视频聊天。而政府机关、企业事业单位的商务视频会议,要求有稳定安全的网络、可靠的会议质量、正式的会议环境等条件,则需要使用专业的视频会议设备,组建专门的视频会议系统。
现有技术中,通常是在视频会议过程中,由专门的会议记录人员人工记录会议发言人的信息。但是,该种方式要求会议记录人员需要一直在会议现场,限制性较大,如果在切换发言人的情况下也可能会由于未及时处理而出现错误。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种识别视频会议发言人的方法和相应的一种识别视频会议发言人的装置。
为了解决上述问题,本发明实施例公开了一种识别视频会议发言人的方法,所述方法应用于视联网中,所述视联网中包括视联网终端、视联网服务器及人工智能服务器,所述方法包括:
所述人工智能服务器接收参加视频会议的发言方视联网终端,经由所述视联网服务器发送的视频流;所述视频流由所述发言方视联网终端采集发言人的视频得到;
所述人工智能服务器对所述视频流进行识别,得到所述发言人的身份信息;
所述人工智能服务器将所述发言人的身份信息返回至所述视联网服务器,并经由所述视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
优选地,所述人工智能服务器包括人脸识别引擎及人脸信息数据库,所述人工智能服务器对所述视频流进行识别,得到所述发言人的身份信息的步骤,包括:所述人脸识别引擎对所述视频流进行人脸识别,得到人脸特征值;所述人脸识别引擎将所述人脸特征值传输至所述人脸信息数据库;所述人脸信息数据库查找与所述人脸特征值绑定的身份信息,将查找到的身份信息作为所述发言人的身份信息。
优选地,所述人脸识别引擎将所述人脸特征值传输至所述人脸信息数据库的步骤,包括:所述人脸识别引擎调用预设的,所述人脸识别引擎与所述人脸信息数据库之间的传输接口,将所述人脸特征值传输至所述人脸信息数据库。
优选地,所述人脸识别引擎将所述人脸特征值传输至所述人脸信息数据库的步骤,包括:所述人脸识别引擎将所述人脸特征值发送至所述视联网服务器,并经由所述视联网服务器将所述人脸特征值转发至所述人脸信息数据库。
优选地,所述经由视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端的步骤,包括:经由所述视联网服务器,按照对参加所述视频会议的各视联网终端配置的下行通信链路,分别将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
优选地,所述人工智能服务器将所述发言人的身份信息返回至所述视联网服务器的步骤,包括:所述人工智能服务器若检测到所述发言人的身份信息发生变化,则将所述发言人的身份信息返回至所述视联网服务器。
另一方面,本发明实施例还公开了一种识别视频会议发言人的装置,所述装置应用于视联网中,所述视联网中包括视联网终端、视联网服务器及人工智能服务器,所述人工智能服务器包括:
接收模块,用于接收参加视频会议的发言方视联网终端,经由所述视联网服务器发送的视频流;所述视频流由所述发言方视联网终端采集发言人的视频得到;
识别模块,用于对所述视频流进行识别,得到所述发言人的身份信息;
返回模块,用于将所述发言人的身份信息返回至所述视联网服务器,并经由所述视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
优选地,所述人工智能服务器包括人脸识别引擎及人脸信息数据库,所述识别模块包括:人脸识别单元,位于所述人脸识别引擎中,用于对所述视频流进行人脸识别,得到人脸特征值;传输单元,位于所述人脸识别引擎中,用于将所述人脸特征值传输至所述人脸信息数据库;查找单元,位于所述人脸信息数据库中,用于查找与所述人脸特征值绑定的身份信息,将查找到的身份信息作为所述发言人的身份信息。
优选地,所述传输单元包括:第一传输子单元,用于调用预设的,所述人脸识别引擎与所述人脸信息数据库之间的传输接口,将所述人脸特征值传输至所述人脸信息数据库。
优选地,所述传输单元包括:第二传输子单元,用于将所述人脸特征值发送至所述视联网服务器,并经由所述视联网服务器将所述人脸特征值转发至所述人脸信息数据库。
本发明实施例中,设置了人工智能服务器,人工智能服务器接收参加视频会议的发言方视联网终端,经由视联网服务器发送的视频流,视频流由发言方视联网终端采集发言人的视频得到;人工智能服务器对视频流进行识别,得到发言人的身份信息;人工智能服务器将发言人的身份信息返回至视联网服务器,并经由视联网服务器将发言人的身份信息转发至参加视频会议的各视联网终端。由此可知,本发明实施例可以通过人工智能服务器自动地、实时地识别发言人的身份信息,即使切换发言人也能及时地识别出切换后的发言人的身份信息,过程更加简便,识别更加准确。
附图说明
图1是本发明的一种视联网的组网示意图;
图2是本发明的一种节点服务器的硬件结构示意图;
图3是本发明的一种接入交换机的硬件结构示意图;
图4是本发明的一种以太网协转网关的硬件结构示意图;
图5是本发明实施例一的一种设备交互示意图;
图6是本发明实施例一的一种识别视频会议发言人的方法的步骤流程图;
图7是本发明实施例二的一种设备交互示意图;
图8是本发明实施例二的一种识别视频会议发言人的方法的步骤流程图;
图9是本发明实施例三的一种识别视频会议发言人的装置的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
视联网是网络发展的重要里程碑,是一个实时网络,能够实现高清视频实时传输,将众多互联网应用推向高清视频化,高清面对面。
视联网采用实时高清视频交换技术,可以在一个网络平台上将所需的服务,如高清视频会议、视频监控、智能化监控分析、应急指挥、数字广播电视、延时电视、网络教学、现场直播、VOD点播、电视邮件、个性录制(PVR)、内网(自办)频道、智能化视频播控、信息发布等数十种视频、语音、图片、文字、通讯、数据等服务全部整合在一个系统平台,通过电视或电脑实现高清品质视频播放。
为使本领域技术人员更好地理解本发明实施例,以下对视联网进行介绍:
视联网所应用的部分技术如下所述:
网络技术(Network Technology)
视联网的网络技术创新改良了传统以太网(Ethernet),以面对网络上潜在的巨大视频流量。不同于单纯的网络分组包交换(Packet Switching)或网络电路交换(CircuitSwitching),视联网技术采用Packet Switching满足Streaming需求。视联网技术具备分组交换的灵活、简单和低价,同时具备电路交换的品质和安全保证,实现了全网交换式虚拟电路,以及数据格式的无缝连接。
交换技术(Switching Technology)
视联网采用以太网的异步和包交换两个优点,在全兼容的前提下消除了以太网缺陷,具备全网端到端无缝连接,直通用户终端,直接承载IP数据包。用户数据在全网范围内不需任何格式转换。视联网是以太网的更高级形态,是一个实时交换平台,能够实现目前互联网无法实现的全网大规模高清视频实时传输,将众多网络视频应用推向高清化、统一化。
服务器技术(Server Technology)
视联网和统一视频平台上的服务器技术不同于传统意义上的服务器,它的流媒体传输是建立在面向连接的基础上,其数据处理能力与流量、通讯时间无关,单个网络层就能够包含信令及数据传输。对于语音和视频业务来说,视联网和统一视频平台流媒体处理的复杂度比数据处理简单许多,效率比传统服务器大大提高了百倍以上。
储存器技术(Storage Technology)
统一视频平台的超高速储存器技术为了适应超大容量和超大流量的媒体内容而采用了最先进的实时操作系统,将服务器指令中的节目信息映射到具体的硬盘空间,媒体内容不再经过服务器,瞬间直接送达到用户终端,用户等待一般时间小于0.2秒。最优化的扇区分布大大减少了硬盘磁头寻道的机械运动,资源消耗仅占同等级IP互联网的20%,但产生大于传统硬盘阵列3倍的并发流量,综合效率提升10倍以上。
网络安全技术(Network Security Technology)
视联网的结构性设计通过每次服务单独许可制、设备与用户数据完全隔离等方式从结构上彻底根除了困扰互联网的网络安全问题,一般不需要杀毒程序、防火墙,杜绝了黑客与病毒的攻击,为用户提供结构性的无忧安全网络。
服务创新技术(Service Innovation Technology)
统一视频平台将业务与传输融合在一起,不论是单个用户、私网用户还是一个网络的总合,都不过是一次自动连接。用户终端、机顶盒或PC直接连到统一视频平台,获得丰富多彩的各种形态的多媒体视频服务。统一视频平台采用“菜谱式”配表模式来替代传统的复杂应用编程,可以使用非常少的代码即可实现复杂的应用,实现“无限量”的新业务创新。
视联网的组网如下所述:
视联网是一种集中控制的网络结构,该网络可以是树型网、星型网、环状网等等类型,但在此基础上网络中需要有集中控制节点来控制整个网络。
如图1所示,视联网分为接入网和城域网两部分。
接入网部分的设备主要可以分为3类:节点服务器,接入交换机,终端(包括各种机顶盒、编码板、存储器等)。节点服务器与接入交换机相连,接入交换机可以与多个终端相连,并可以连接以太网。
其中,节点服务器是接入网中起集中控制功能的节点,可控制接入交换机和终端。节点服务器可直接与接入交换机相连,也可以直接与终端相连。
类似的,城域网部分的设备也可以分为3类:城域服务器,节点交换机,节点服务器。城域服务器与节点交换机相连,节点交换机可以与多个节点服务器相连。
其中,节点服务器即为接入网部分的节点服务器,即节点服务器既属于接入网部分,又属于城域网部分。
城域服务器是城域网中起集中控制功能的节点,可控制节点交换机和节点服务器。城域服务器可直接连接节点交换机,也可直接连接节点服务器。
由此可见,整个视联网络是一种分层集中控制的网络结构,而节点服务器和城域服务器下控制的网络可以是树型、星型、环状等各种结构。
形象地称,接入网部分可以组成统一视频平台(虚线圈中部分),多个统一视频平台可以组成视联网;每个统一视频平台可以通过城域以及广域视联网互联互通。
1、视联网设备分类
1.1本发明实施例的视联网中的设备主要可以分为3类:服务器,交换机(包括以太网网关),终端(包括各种机顶盒,编码板,存储器等)。视联网整体上可以分为城域网(或者国家网、全球网等)和接入网。
1.2其中接入网部分的设备主要可以分为3类:节点服务器,接入交换机(包括以太网网关),终端(包括各种机顶盒,编码板,存储器等)。
各接入网设备的具体硬件结构为:
节点服务器:
如图2所示,主要包括网络接口模块201、交换引擎模块202、CPU模块203、磁盘阵列模块204;
其中,网络接口模块201,CPU模块203、磁盘阵列模块204进来的包均进入交换引擎模块202;交换引擎模块202对进来的包进行查地址表205的操作,从而获得包的导向信息;并根据包的导向信息把该包存入对应的包缓存器206的队列;如果包缓存器206的队列接近满,则丢弃;交换引擎模202轮询所有包缓存器队列,如果满足以下条件进行转发:1)该端口发送缓存未满;2)该队列包计数器大于零。磁盘阵列模块204主要实现对硬盘的控制,包括对硬盘的初始化、读写等操作;CPU模块203主要负责与接入交换机、终端(图中未示出)之间的协议处理,对地址表205(包括下行协议包地址表、上行协议包地址表、数据包地址表)的配置,以及,对磁盘阵列模块204的配置。
接入交换机:
如图3所示,主要包括网络接口模块(下行网络接口模块301、上行网络接口模块302)、交换引擎模块303和CPU模块304;
其中,下行网络接口模块301进来的包(上行数据)进入包检测模块305;包检测模块305检测包的目地地址(DA)、源地址(SA)、数据包类型及包长度是否符合要求,如果符合,则分配相应的流标识符(stream-id),并进入交换引擎模块303,否则丢弃;上行网络接口模块302进来的包(下行数据)进入交换引擎模块303;CPU模块204进来的数据包进入交换引擎模块303;交换引擎模块303对进来的包进行查地址表306的操作,从而获得包的导向信息;如果进入交换引擎模块303的包是下行网络接口往上行网络接口去的,则结合流标识符(stream-id)把该包存入对应的包缓存器307的队列;如果该包缓存器307的队列接近满,则丢弃;如果进入交换引擎模块303的包不是下行网络接口往上行网络接口去的,则根据包的导向信息,把该数据包存入对应的包缓存器307的队列;如果该包缓存器307的队列接近满,则丢弃。
交换引擎模块303轮询所有包缓存器队列,在本发明实施例中分两种情形:
如果该队列是下行网络接口往上行网络接口去的,则满足以下条件进行转发:1)该端口发送缓存未满;2)该队列包计数器大于零;3)获得码率控制模块产生的令牌;
如果该队列不是下行网络接口往上行网络接口去的,则满足以下条件进行转发:1)该端口发送缓存未满;2)该队列包计数器大于零。
码率控制模块208是由CPU模块204来配置的,在可编程的间隔内对所有下行网络接口往上行网络接口去的包缓存器队列产生令牌,用以控制上行转发的码率。
CPU模块304主要负责与节点服务器之间的协议处理,对地址表306的配置,以及,对码率控制模块308的配置。
以太网协转网关:
如图4所示,主要包括网络接口模块(下行网络接口模块401、上行网络接口模块402)、交换引擎模块403、CPU模块404、包检测模块405、码率控制模块408、地址表406、包缓存器407和MAC添加模块409、MAC删除模块410。
其中,下行网络接口模块401进来的数据包进入包检测模块405;包检测模块405检测数据包的以太网MAC DA、以太网MAC SA、以太网length or frame type、视联网目的地址DA、视联网源地址SA、视联网数据包类型及包长度是否符合要求,如果符合则分配相应的流标识符(stream-id);然后,由MAC删除模块410减去MAC DA、MAC SA、length or frame type(2byte),并进入相应的接收缓存,否则丢弃;
下行网络接口模块401检测该端口的发送缓存,如果有包则根据包的视联网目的地址DA获知对应的终端的以太网MAC DA,添加终端的以太网MAC DA、以太网协转网关的MACSA、以太网length or frame type,并发送。
以太网协转网关中其他模块的功能与接入交换机类似。
终端:
主要包括网络接口模块、业务处理模块和CPU模块;例如,机顶盒主要包括网络接口模块、视音频编解码引擎模块、CPU模块;编码板主要包括网络接口模块、视音频编码引擎模块、CPU模块;存储器主要包括网络接口模块、CPU模块和磁盘阵列模块。
1.3城域网部分的设备主要可以分为2类:节点服务器,节点交换机,城域服务器。其中,节点交换机主要包括网络接口模块、交换引擎模块和CPU模块;城域服务器主要包括网络接口模块、交换引擎模块和CPU模块构成。
2、视联网数据包定义
2.1接入网数据包定义
接入网的数据包主要包括以下几部分:目的地址(DA)、源地址(SA)、保留字节、payload(PDU)、CRC。
如下表所示,接入网的数据包主要包括以下几部分:
DA | SA | Reserved | Payload | CRC |
其中:
目的地址(DA)由8个字节(byte)组成,第一个字节表示数据包的类型(例如各种协议包、组播数据包、单播数据包等),最多有256种可能,第二字节到第六字节为城域网地址,第七、第八字节为接入网地址;
源地址(SA)也是由8个字节(byte)组成,定义与目的地址(DA)相同;
保留字节由2个字节组成;
payload部分根据不同的数据包的类型有不同的长度,如果是各种协议包的话是64个字节,如果是单组播数据包话是32+1024=1056个字节,当然并不仅仅限于以上2种;
CRC有4个字节组成,其计算方法遵循标准的以太网CRC算法。
2.2城域网数据包定义
城域网的拓扑是图型,两个设备之间可能有2种、甚至2种以上的连接,即节点交换机和节点服务器、节点交换机和节点交换机、节点交换机和节点服务器之间都可能超过2种连接。但是,城域网设备的城域网地址却是唯一的,为了精确描述城域网设备之间的连接关系,在本发明实施例中引入参数:标签,来唯一描述一个城域网设备。
本说明书中标签的定义和MPLS(Multi-Protocol Label Switch,多协议标签交换)的标签的定义类似,假设设备A和设备B之间有两个连接,那么数据包从设备A到设备B就有2个标签,数据包从设备B到设备A也有2个标签。标签分入标签、出标签,假设数据包进入设备A的标签(入标签)是0x0000,这个数据包离开设备A时的标签(出标签)可能就变成了0x0001。城域网的入网流程是集中控制下的入网过程,也就意味着城域网的地址分配、标签分配都是由城域服务器主导的,节点交换机、节点服务器都是被动的执行而已,这一点与MPLS的标签分配是不同的,MPLS的标签分配是交换机、服务器互相协商的结果。
如下表所示,城域网的数据包主要包括以下几部分:
DA | SA | Reserved | 标签 | Payload | CRC |
即目的地址(DA)、源地址(SA)、保留字节(Reserved)、标签、payload(PDU)、CRC。其中,标签的格式可以参考如下定义:标签是32bit,其中高16bit保留,只用低16bit,它的位置是在数据包的保留字节和payload之间。
基于视联网的上述特性,提出了本发明实施例的识别视频会议发言人的方案,遵循视联网的协议,通过人工智能服务器对视频会议的发言人进行识别,过程更加简便,识别更加准确。
实施例一
本发明实施例的识别视频会议发言人的方法可以应用于视联网中,在视联网中可以包括视联网终端、视联网服务器及人工智能服务器。
参照图5,示出了本发明实施例一的一种设备交互示意图。由图5可知,视联网终端和视联网服务器之间可以进行双向交互,视联网服务器和人工智能服务器之间可以进行双向交互。其中,视联网终端和视联网服务器之间可以基于视联网协议进行双向交互,视联网服务器和人工智能服务器之间可以基于视联网协议进行双向交互。
视联网终端是承载视联网业务的应用设备,视联网业务的实际参与者或服务者,能够支持视频会议、监控查看、可视电话、直播点播、可视化指挥、远程医疗、远程培训等全视屏业务。视联网终端可以为各种会议机顶盒、可视电话机顶盒、手术试教机顶盒,流媒体网关、存储网关、媒体合成器,等等。视联网终端预先在视联网服务器进行注册,方可进行正常业务。注册后可以得到视联网服务器为该视联网终端分配的视联网号码、MAC(MediaAccess Control,媒体访问控制)地址等信息。
人工智能(Artificial Intelligence,AI)服务器具体可以为软件终端。人工智能服务器也作为一种视联网终端,预先在视联网服务器上进行注册。注册后可以得到视联网服务器为该人工智能服务器分配的视联网号码、MAC地址等信息。
参照图6,示出了本发明实施例一的一种识别视频会议发言人的方法的步骤流程图。
本发明实施例的识别视频会议发言人的方法可以包括以下步骤:
步骤601,人工智能服务器接收参加视频会议的发言方视联网终端,经由所述视联网服务器发送的视频流。
在一个视频会议中,可以包括多个参加该视频会议的视联网终端。根据在视频会议中角色的不同,可以包括主席方视联网终端、发言方视联网终端、参会方视联网终端,等等。
在发言方视联网终端处的发言人进行发言时,发言方视联网终端可以采集发言人的视频,得到视频流。发言方视联网终端将采集到的视频流,经由视联网服务器发送至人工智能服务器。
在具体实现中,发言方视联网终端基于视联网协议,将视频流封装为一个个的视联网协议数据包,并将视联网协议数据包发送至视联网服务器,再由视联网服务器基于视联网协议,将视联网协议数据包发送至人工智能服务器。
步骤602,人工智能服务器对所述视频流进行识别,得到所述发言人的身份信息。
人工智能服务器接收到视联网协议数据包后,对其进行解析,得到其中的视频流数据。人工智能服务器可以对视频流进行识别,得到对应的发言人的身份信息。
步骤603,人工智能服务器将所述发言人的身份信息返回至所述视联网服务器,并经由所述视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
人工智能服务器将发言人的身份信息返回至视联网服务器。在具体实现中,人工智能服务器基于视联网协议,将发言人的身份信息封装为视联网协议数据包,并通过视联网将视联网协议数据包返回至视联网服务器。
视联网服务器接收到视联网协议数据包后,还可以基于视联网协议,将发言人的身份信息转发至参加视频会议的各视联网终端。各视联网终端接收到发言人的身份信息后,可以显示发言人的身份信息,以使各视联网终端的用户能够实时查看发言人的身份信息。
本发明实施例可以通过人工智能服务器自动地、实时地识别发言人的身份信息,即使切换发言人也能及时地识别出切换后的发言人的身份信息,过程更加简便,识别更加准确。
实施例二
本发明实施例中,在视联网中可以包括视联网终端、视联网服务器及人工智能服务器,人工智能服务器包括人脸识别引擎及人脸信息数据库。
参照图7,示出了本发明实施例二的一种设备交互示意图。由图7可知,视联网终端和视联网服务器之间可以进行双向交互,视联网服务器和人脸识别引擎之间可以进行双向交互,视联网服务器和人脸信息数据库之间可以进行双向交互,人脸识别引擎和人脸信息数据库之间可以进行双向交互。其中,视联网终端和视联网服务器之间可以基于视联网协议进行双向交互,视联网服务器和人脸识别引擎之间可以基于视联网协议进行双向交互,视联网服务器和人脸信息数据库之间可以基于视联网协议进行双向交互。人脸识别引擎和人脸信息数据库之间可以基于两者之间的预设传输接口进行双向交互。
人工智能服务器具体可以为运行有人脸识别引擎、音视频编解码程序、人脸信息数据库等的基于Linux的服务器。
参照图8,示出了本发明实施例二的一种识别视频会议发言人的方法的步骤流程图。
本发明实施例的识别视频会议发言人的方法可以包括以下步骤:
步骤801,人脸识别引擎接收参加视频会议的发言方视联网终端,经由所述视联网服务器发送的视频流。
在进行识别之前,人工智能服务器中的人脸识别引擎及人脸信息数据库可以进行预先注册过程。在具体实现中,预先采集指定范围内的用户的身份信息,并将这些身份信息存储至人脸信息数据库。比如可以采集可能进行视频会议的各个政府部门的全部职员的身份信息,身份信息可以包括用户的照片、姓名、职位、电话号码,等等。人脸信息数据库通过调用预设的,人脸信息数据库与人脸识别引擎之间的传输接口,将各个用户的照片传输至人脸识别引擎。人脸识别引擎针对照片进行人脸识别,得到各个照片对应的人脸特征值,并通过调用预设的,人脸识别引擎与人脸信息数据库之间的传输接口,将各个照片对应的人脸特征值传输至人脸信息数据库。人脸信息数据库将各个人脸特征值与对应的身份信息绑定。
本发明实施例中,发言方视联网终端具体将采集到的视频流,经由视联网服务器,发送至人工智能服务器中的人脸识别引擎。
在具体实现中,发言方视联网终端基于视联网协议,将视频流封装为一个个的视联网协议数据包,并将视联网协议数据包发送至视联网服务器,再由视联网服务器基于视联网协议,通过视联网服务器与人脸识别引擎之间的接口,将视联网协议数据包发送至人脸识别引擎。
步骤802,人脸识别引擎对所述视频流进行人脸识别,得到人脸特征值。
人脸识别引擎接收到视联网协议数据包后,对其进行解析,得到其中的视频流数据。人脸识别引擎可以对视频流进行识别,得到对应的人脸特征值。
对于人脸识别引擎对视频流进行识别得到人脸特征值的具体过程,本领域技术人员可以采用任意适用的方式进行处理,本发明实施例在此不再详细论述。
比如,本发明实施例中可以选用人脸识别引擎为SeetaFace,SeetaFace代码基于C++实现,不依赖第三方库。SeetaFace人脸识别引擎包括了搭建一套全自动人脸识别系统所需的三个核心模块,即:人脸检测模块(SeetaFace Detection)、面部特征点定位模块(SeetaFace Alignment)以及人脸特征提取与比对模块(SeetaFace Identification)。三个模块相互独立,综合利用起来即可实现最终的人脸识别功能。
各模块的主要功能如下:
1.人脸检测模块:采用了一种结合传统人造特征与多层感知机(MLP)的级联结构,在FDDB上达到了84.4%的召回率(100个误检时),并可在单个i7CPU上实时处理VGA分辨率的图像。
2.面部特征点定位模块:通过级联多个深度模型(栈式自编码网络)来回归5个关键特征点(两眼中心、鼻尖和两个嘴角)的位置,在AFLW数据库上达到state-of-the-art的精度,定位速度在单个i7CPU上超过200fps。
3.人脸识别模块:采用一个9层的卷积神经网络(CNN)来提取人脸特征,在LFW数据库上达到97.1%的精度(注:采用SeetaFace人脸检测和SeetaFace面部特征点定位作为前端进行全自动识别的情况下),特征提取速度为每图120ms(在单个i7CPU上)。
步骤803,人脸识别引擎将所述人脸特征值传输至所述人脸信息数据库。
人脸识别引擎将识别得到的人脸特征值传输至人脸信息数据库,通过人脸信息数据库依据该人脸特征值查找对应的身份信息。
在一种优选实施方式中,该步骤803可以包括:人脸识别引擎调用预设的,所述人脸识别引擎与所述人脸信息数据库之间的传输接口,将所述人脸特征值传输至所述人脸信息数据库。
该种方式下,可以预先设置人脸识别引擎与人脸信息数据库之间进行数据传输的传输接口,两者之间可以通过该接口传输数据,从而无需再通过视联网服务器等其它设备。
在另一种优选实施方式中,该步骤803可以包括:人脸识别引擎将所述人脸特征值发送至所述视联网服务器,并经由所述视联网服务器将所述人脸特征值转发至所述人脸信息数据库。
该种方式下,人脸识别引擎与人脸信息数据库之间可以经由视联网服务器进行数据传输,从而无需再单独设置人脸识别引擎与人脸信息数据库之间的传输接口。
在具体实现中,人脸识别引擎基于视联网协议,将人脸特征值封装为视联网协议数据包,通过人脸识别引擎与视联网服务器之间的接口,将视联网协议数据包发送至视联网服务器;再由视联网服务器基于视联网协议,通过视联网服务器与人脸信息数据库之间的接口,将视联网协议数据包发送至人脸信息数据库。
步骤804,人脸信息数据库查找与所述人脸特征值绑定的身份信息,将查找到的身份信息作为所述发言人的身份信息。
在进行识别之前的注册过程中,人脸信息数据库中存储了大量身份信息与人脸特征值,并将各个人脸特征值与对应的身份信息绑定。
因此,人脸信息数据库接收到人脸识别引擎识别出的人脸特征值后,可以查找与该人脸特征值绑定的身份信息。具体地,人脸信息数据库将接收到的人脸特征值与自身存储的大量人脸特征值进行对比,找到对比一致的人脸特征值,并获取该对比一致的人脸特征值绑定的身份信息,该身份信息即为查找到的身份信息。人脸信息数据库将查找到的身份信息作为发言人的身份信息。
步骤805,人脸信息数据库将所述发言人的身份信息返回至所述视联网服务器,并经由所述视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
人脸信息数据库在依据当前发言人的人脸特征值查找到当前发言人的身份信息后,将发言人的身份信息返回至视联网服务器。
在具体实现中,人脸信息数据库基于视联网协议,将发言人的身份信息封装为视联网协议数据包,通过发言人的身份信息与视联网服务器之间的接口,将视联网协议数据包发送至视联网服务器。
在一种优选实施方式中,发言方视联网终端在不间断地向人脸识别引擎发送视频流;人脸识别引擎不间断地针对每一帧图片进行人脸识别,得到人脸特征值,并将人脸特征值传输至人脸信息数据库;人脸信息数据库也针对每个人脸特征值查找对应的身份信息。但是存在一种情况,如果没切换发言人,那么人脸信息数据库查找到的身份信息也不会发生变化,因此该种情况下为了降低数据传输次数,人脸信息数据库可以无需再次将相同的发言人的身份信息返回至视联网服务器。如果切换发言人,那么人脸信息数据库查找到的身份信息也会发生变化,因此该种情况下人脸信息数据库检测到发言人的身份信息发生变化时,要将所述发言人的身份信息返回至视联网服务器,也即将切换后的发言人的身份信息返回至视联网服务器。
视联网服务器在接收到人脸信息数据库返回的发言人的身份信息后,将发言人的身份信息转发至参加视频会议的各视联网终端。因此各视联网终端的用户可以实时查看当前发言人的身份信息,而不受发言人切换的影响。
在一种优选实施方式中,视联网服务器可以按照对参加所述视频会议的各视联网终端配置的下行通信链路,分别将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
在实际应用中,视联网为具有集中控制功能的网络,包括主控服务器和下级网络设备,该下级网络设备包括终端,视联网的核心构思之一在于,通过由主控服务器通知交换设备针对当次服务的下行通信链路配表,然后基于该配置的表进行数据包的传送。
即,视联网中的通信方法包括:
主控服务器配置当次服务的下行通信链路。
将源终端(如人脸信息数据库)发送的当次服务的数据包,按照所述下行通信链路传送至目标终端(如参加视频会议的各视联网终端)。
在本发明实施例中,配置当次服务的下行通信链路包括:通知当次服务的下行通信链路所涉及的交换设备配表。
进一步而言,按照下行通信链路传送包括:查询所配置的表,交换设备对所接收的数据包通过相应端口进行传送。
在具体实现中,服务包括单播通信服务和组播通信服务。即无论是组播通信还是单播通信,都可以采用上述配表—用表的核心构思实现视联网中的通信。
如前所述,视联网包括接入网部分,在接入网中,该主控服务器为节点服务器,下级网络设备包括接入交换机和终端。
对于接入网中的单播通信服务而言,所述主控服务器配置当次服务的下行通信链路的步骤可以包括以下步骤:
子步骤S11,主控服务器依据源终端发起的服务请求协议包,获取当次服务的下行通信链路信息,下行通信链路信息包括,参与当次服务的主控服务器和接入交换机的下行通信端口信息。
子步骤S12,主控服务器依据主控服务器的下行通信端口信息,在其内部的数据包地址表中设置当次服务的数据包所导向的下行端口;并依据接入交换机的下行通信端口信息,向相应的接入交换机发送端口配置命令。
子步骤S13,接入交换机依据端口配置命令在其内部的数据包地址表中,设置当次服务的数据包所导向的下行端口。
对于接入网中的组播通信服务(如视频会议)而言,主控服务器获取当次服务的下行通信链路信息的步骤可以包括以下子步骤:
子步骤S21,主控服务器获得目标终端发起的申请组播通信服务的服务请求协议包,服务请求协议包中包括服务类型信息、服务内容信息和目标终端的接入网地址。
其中,服务内容信息中包括服务号码。
子步骤S22,主控服务器依据所述服务号码在预置的内容-地址映射表中,提取源终端的接入网地址。
子步骤S23,主控服务器获取源终端对应的组播地址,并分配给目标终端;以及,依据服务类型信息、源终端和目标终端的接入网地址,获取当次组播服务的通信链路信息。
本发明实施例中,人脸信息数据库在依据当前发言人的人脸特征值查找到当前发言人的身份信息后,还可以将发言人的身份信息提供给会议纪要,以使会议纪要能够更加清晰、简便地记录会议发言人及发言内容等信息。
本发明实施例中,视频会议中的发言人的身份信息能够不受场景及发言人切换等因素的影响,更加及时地在各个参加视频会议的视联网终端上显示出来。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
实施例三
本发明实施例的识别视频会议发言人的装置可以应用于视联网中。视联网中可以包括视联网终端、视联网服务器及人工智能服务器。
参照图9,示出了本发明实施例三的一种识别视频会议发言人的装置的结构框图。
本发明实施例的识别视频会议发言人的装置可以包括以下位于人工智能服务器中的模块:
所述人工智能服务器包括:
接收模块901,用于接收参加视频会议的发言方视联网终端,经由所述视联网服务器发送的视频流;所述视频流由所述发言方视联网终端采集发言人的视频得到;
识别模块902,用于对所述视频流进行识别,得到所述发言人的身份信息;
返回模块903,用于将所述发言人的身份信息返回至所述视联网服务器,并经由所述视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
在一种优选实施方式中,所述人工智能服务器包括人脸识别引擎及人脸信息数据库。所述识别模块包括:人脸识别单元,位于所述人脸识别引擎中,用于对所述视频流进行人脸识别,得到人脸特征值;传输单元,位于所述人脸识别引擎中,用于将所述人脸特征值传输至所述人脸信息数据库;查找单元,位于所述人脸信息数据库中,用于查找与所述人脸特征值绑定的身份信息,将查找到的身份信息作为所述发言人的身份信息。
在一种优选实施方式中,所述传输单元包括:第一传输子单元,用于调用预设的,所述人脸识别引擎与所述人脸信息数据库之间的传输接口,将所述人脸特征值传输至所述人脸信息数据库。
在一种优选实施方式中,所述传输单元包括:第二传输子单元,用于将所述人脸特征值发送至所述视联网服务器,并经由所述视联网服务器将所述人脸特征值转发至所述人脸信息数据库。
在一种优选实施方式中,所述返回模块,具体用于将所述发言人的身份信息返回至所述视联网服务器,并经由所述视联网服务器,按照对参加所述视频会议的各视联网终端配置的下行通信链路,分别将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
在一种优选实施方式中,所述返回模块,具体用于若检测到所述发言人的身份信息发生变化,则将所述发言人的身份信息返回至所述视联网服务器。
本发明实施例可以通过人工智能服务器自动地、实时地识别发言人的身份信息,即使切换发言人也能及时地识别出切换后的发言人的身份信息,过程更加简便,识别更加准确。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种识别视频会议发言人的方法和一种识别视频会议发言人的装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种识别视频会议发言人的方法,其特征在于,所述方法应用于视联网中,所述视联网中包括视联网终端、视联网服务器及人工智能服务器,所述方法包括:
所述人工智能服务器接收参加视频会议的发言方视联网终端,经由所述视联网服务器发送的视频流;所述视频流由所述发言方视联网终端采集发言人的视频得到;
所述人工智能服务器对所述视频流进行识别,得到所述发言人的身份信息;
所述人工智能服务器将所述发言人的身份信息返回至所述视联网服务器,并经由所述视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
2.根据权利要求1所述的方法,其特征在于,所述人工智能服务器包括人脸识别引擎及人脸信息数据库,所述人工智能服务器对所述视频流进行识别,得到所述发言人的身份信息的步骤,包括:
所述人脸识别引擎对所述视频流进行人脸识别,得到人脸特征值;
所述人脸识别引擎将所述人脸特征值传输至所述人脸信息数据库;
所述人脸信息数据库查找与所述人脸特征值绑定的身份信息,将查找到的身份信息作为所述发言人的身份信息。
3.根据权利要求2所述的方法,其特征在于,所述人脸识别引擎将所述人脸特征值传输至所述人脸信息数据库的步骤,包括:
所述人脸识别引擎调用预设的,所述人脸识别引擎与所述人脸信息数据库之间的传输接口,将所述人脸特征值传输至所述人脸信息数据库。
4.根据权利要求2所述的方法,其特征在于,所述人脸识别引擎将所述人脸特征值传输至所述人脸信息数据库的步骤,包括:
所述人脸识别引擎将所述人脸特征值发送至所述视联网服务器,并经由所述视联网服务器将所述人脸特征值转发至所述人脸信息数据库。
5.根据权利要求1所述的方法,其特征在于,所述经由视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端的步骤,包括:
经由所述视联网服务器,按照对参加所述视频会议的各视联网终端配置的下行通信链路,分别将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
6.根据权利要求1所述的方法,其特征在于,所述人工智能服务器将所述发言人的身份信息返回至所述视联网服务器的步骤,包括:
所述人工智能服务器若检测到所述发言人的身份信息发生变化,则将所述发言人的身份信息返回至所述视联网服务器。
7.一种识别视频会议发言人的装置,其特征在于,所述装置应用于视联网中,所述视联网中包括视联网终端、视联网服务器及人工智能服务器,所述人工智能服务器包括:
接收模块,用于接收参加视频会议的发言方视联网终端,经由所述视联网服务器发送的视频流;所述视频流由所述发言方视联网终端采集发言人的视频得到;
识别模块,用于对所述视频流进行识别,得到所述发言人的身份信息;
返回模块,用于将所述发言人的身份信息返回至所述视联网服务器,并经由所述视联网服务器将所述发言人的身份信息转发至参加所述视频会议的各视联网终端。
8.根据权利要求7所述的装置,其特征在于,所述人工智能服务器包括人脸识别引擎及人脸信息数据库,所述识别模块包括:
人脸识别单元,位于所述人脸识别引擎中,用于对所述视频流进行人脸识别,得到人脸特征值;
传输单元,位于所述人脸识别引擎中,用于将所述人脸特征值传输至所述人脸信息数据库;
查找单元,位于所述人脸信息数据库中,用于查找与所述人脸特征值绑定的身份信息,将查找到的身份信息作为所述发言人的身份信息。
9.根据权利要求8所述的装置,其特征在于,所述传输单元包括:
第一传输子单元,用于调用预设的,所述人脸识别引擎与所述人脸信息数据库之间的传输接口,将所述人脸特征值传输至所述人脸信息数据库。
10.根据权利要求8所述的装置,其特征在于,所述传输单元包括:
第二传输子单元,用于将所述人脸特征值发送至所述视联网服务器,并经由所述视联网服务器将所述人脸特征值转发至所述人脸信息数据库。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811238385.XA CN109561273A (zh) | 2018-10-23 | 2018-10-23 | 识别视频会议发言人的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811238385.XA CN109561273A (zh) | 2018-10-23 | 2018-10-23 | 识别视频会议发言人的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109561273A true CN109561273A (zh) | 2019-04-02 |
Family
ID=65865087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811238385.XA Pending CN109561273A (zh) | 2018-10-23 | 2018-10-23 | 识别视频会议发言人的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109561273A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110430385A (zh) * | 2019-07-01 | 2019-11-08 | 视联动力信息技术股份有限公司 | 视频会议处理方法、装置及存储介质 |
CN110971862A (zh) * | 2019-11-04 | 2020-04-07 | 厦门亿联网络技术股份有限公司 | 一种视频会议广播方法及装置 |
WO2022073219A1 (zh) * | 2020-10-10 | 2022-04-14 | 海能达通信股份有限公司 | 一种身份信息处理方法及装置 |
CN114630144A (zh) * | 2022-03-03 | 2022-06-14 | 广州方硅信息技术有限公司 | 直播间内的音频替换方法、系统、装置及计算机设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101540873A (zh) * | 2009-05-07 | 2009-09-23 | 深圳华为通信技术有限公司 | 一种在视讯会议中提示发言人信息的方法、装置及系统 |
CN102572356A (zh) * | 2012-01-16 | 2012-07-11 | 华为技术有限公司 | 记录会议的方法和会议系统 |
CN104639777A (zh) * | 2013-11-14 | 2015-05-20 | 中兴通讯股份有限公司 | 一种会议控制方法、装置及会议系统 |
US20170041556A1 (en) * | 2015-08-03 | 2017-02-09 | Akihito Aiba | Video processing apparatus, method, and system |
CN107333090A (zh) * | 2016-04-29 | 2017-11-07 | 中国电信股份有限公司 | 视频会议数据处理方法和平台 |
US20180063480A1 (en) * | 2016-08-29 | 2018-03-01 | Microsoft Technology Licensing, Llc | Gallery view in online meeting systems |
-
2018
- 2018-10-23 CN CN201811238385.XA patent/CN109561273A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101540873A (zh) * | 2009-05-07 | 2009-09-23 | 深圳华为通信技术有限公司 | 一种在视讯会议中提示发言人信息的方法、装置及系统 |
CN102572356A (zh) * | 2012-01-16 | 2012-07-11 | 华为技术有限公司 | 记录会议的方法和会议系统 |
CN104639777A (zh) * | 2013-11-14 | 2015-05-20 | 中兴通讯股份有限公司 | 一种会议控制方法、装置及会议系统 |
US20170041556A1 (en) * | 2015-08-03 | 2017-02-09 | Akihito Aiba | Video processing apparatus, method, and system |
CN107333090A (zh) * | 2016-04-29 | 2017-11-07 | 中国电信股份有限公司 | 视频会议数据处理方法和平台 |
US20180063480A1 (en) * | 2016-08-29 | 2018-03-01 | Microsoft Technology Licensing, Llc | Gallery view in online meeting systems |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110430385A (zh) * | 2019-07-01 | 2019-11-08 | 视联动力信息技术股份有限公司 | 视频会议处理方法、装置及存储介质 |
CN110430385B (zh) * | 2019-07-01 | 2021-05-14 | 视联动力信息技术股份有限公司 | 视频会议处理方法、装置及存储介质 |
CN110971862A (zh) * | 2019-11-04 | 2020-04-07 | 厦门亿联网络技术股份有限公司 | 一种视频会议广播方法及装置 |
WO2022073219A1 (zh) * | 2020-10-10 | 2022-04-14 | 海能达通信股份有限公司 | 一种身份信息处理方法及装置 |
CN114630144A (zh) * | 2022-03-03 | 2022-06-14 | 广州方硅信息技术有限公司 | 直播间内的音频替换方法、系统、装置及计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107995231B (zh) | 一种远程控制设备的方法和装置 | |
CN108632398B (zh) | 一种会议接入方法和系统,协转服务器和会议管理终端 | |
CN108418778A (zh) | 一种互联网与视联网通信的方法、装置及交互系统 | |
CN108881789A (zh) | 一种基于视频会议的数据交互方法和装置 | |
CN110149262A (zh) | 一种信令报文的处理方法和装置、及存储介质 | |
CN109561273A (zh) | 识别视频会议发言人的方法和装置 | |
CN110022456A (zh) | 邀请终端入会的方法和装置 | |
CN108810444A (zh) | 视频会议的处理方法、会议调度端和协转服务器 | |
CN109068186A (zh) | 丢包率的处理方法和装置 | |
CN110022306A (zh) | 一种视频会议呼叫入会的方法及装置 | |
CN109818776A (zh) | 微服务模块异常定位方法和装置 | |
CN109889779A (zh) | 一种报文乱序的处理方法和装置 | |
CN109547731A (zh) | 一种视频会议的展示方法和系统 | |
CN109379254A (zh) | 一种基于视频会议的网络连接的检测方法和系统 | |
CN108965220A (zh) | 一种会议控制权同步的方法及系统 | |
CN107888544A (zh) | 一种视联网终端与通讯设备之间建立通讯的方法和系统 | |
CN109040656A (zh) | 一种视频会议的处理方法和系统 | |
CN110062192A (zh) | 视频会议中的数据处理方法、装置及存储介质 | |
CN109996027A (zh) | 视频会议的处理方法和装置 | |
CN110046222A (zh) | 一种智能问答方法和系统 | |
CN109525663A (zh) | 一种视频数据的展示方法和系统 | |
CN109873864A (zh) | 一种基于视联网的通信连接建立方法及系统 | |
CN109743555A (zh) | 一种基于视联网的信息处理方法及系统 | |
CN109743284A (zh) | 一种基于视联网的视频处理方法及系统 | |
CN109005378A (zh) | 一种视频会议的处理方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190402 |
|
RJ01 | Rejection of invention patent application after publication |