CN114549744A - 一种构建虚拟三维会议场景的方法、服务器和ar设备 - Google Patents

一种构建虚拟三维会议场景的方法、服务器和ar设备 Download PDF

Info

Publication number
CN114549744A
CN114549744A CN202210082437.9A CN202210082437A CN114549744A CN 114549744 A CN114549744 A CN 114549744A CN 202210082437 A CN202210082437 A CN 202210082437A CN 114549744 A CN114549744 A CN 114549744A
Authority
CN
China
Prior art keywords
user
data
conference
dimensional model
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210082437.9A
Other languages
English (en)
Inventor
任子健
刘帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juhaokan Technology Co Ltd
Original Assignee
Juhaokan Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juhaokan Technology Co Ltd filed Critical Juhaokan Technology Co Ltd
Priority to CN202210082437.9A priority Critical patent/CN114549744A/zh
Publication of CN114549744A publication Critical patent/CN114549744A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种构建虚拟三维会议场景的方法、服务器和AR设备,该方法中:若检测到当前用户登录会议系统,将当前用户的三维模型数据发给除当前用户之外的其他用户的AR设备,将材料展示位置信息和当前时刻的落座信息集合发送至参会用户的AR设备,以使各AR设备根据当前时刻的落座信息集合确定对应用户的落座信息;将接收到的动作数据发送至除对应用户之外的其他用户的AR设备、将参会用户的音频数据和会议主讲用户的展示材料数据发给各AR设备,以使各AR设备基于动作数据驱动相应的三维模型运动、将展示材料数据展示在对应的位置,播放对应用户的音频数据。用以提高远程会议时的沉浸感、真实感和临场感,以及与真实世界交互的能力。

Description

一种构建虚拟三维会议场景的方法、服务器和AR设备
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种构建虚拟三维会议场景的方法、服务器和AR设备。
背景技术
随着科技的进步和发展,在自动化办公系统中,远程会议的出现给人们的工作带来了极大的便利。传统的远程会议一般是通过视频或者音频的形式进行,这种方式没有临场感和沉浸感,也无法进行有效和具有真实感的交互。
为了克服该问题,相关技术中出现了虚拟会议的形式,比如通过预置的虚拟Avatar形象在一个虚拟的三维场景中进行会议,显示设备比如是PC(Personal Computer,个人电脑)、平板、手机或者是VR(Virtual Reality,虚拟现实)头盔。虽然这种形式的虚拟会议具有较强的沉浸感,也可以在虚拟场景中进行交互,但是由于人物形象是预置的虚拟形象,真实感和临场感较差。
另外,相关技术中,还可以运用三维重建技术将采集重建后的真人三维形象在虚拟场景中进行会议,但是,由于整个场景都是三维模型的形式虚拟出来的,导致无法跟真实世界进行交互,临场感较差。
发明内容
本发明示例性的实施方式中提供一种构建虚拟三维会议场景的方法、服务器和AR设备,用以提高远程会议时的沉浸感、真实感和临场感,以及与真实世界交互的能力。
根据示例性的实施方式中的第一方面,提供一种构建虚拟三维会议场景的方法,该方法包括:
若检测到当前用户登录会议系统,则将所述当前用户的三维模型数据发送至参会用户中除所述当前用户之外的其他用户的AR设备,将材料展示位置信息和当前时刻的落座信息集合发送至所述参会用户的各个的AR设备,以使各个所述AR设备根据所述当前时刻的落座信息集合确定对应用户的落座信息;
针对任意一个动作采集相机,在确定所述动作采集相机对应的用户的落座信息后,接收所述动作采集相机采集到的相应用户的动作数据;以及,接收所述参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;
针对任意一个用户的动作数据,将所述动作数据发送至所述参会用户中除所述一个用户之外的其他用户的AR设备、将所述参会用户的音频数据和所述会议主讲用户的展示材料数据发送至所述参会用户的各个AR设备,以使各个AR设备基于接收到的所述动作数据驱动相应的三维模型运动、将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放所述对应用户的音频数据。
本申请实施例,在检测到有用户登录会议系统后,由于当前用户的AR设备中通常已经有了自身的三维模型数据,因此将该用户的三维模型数据发送至参会用户中除当前用户之外的其他用户的AR设备,将材料展示位置信息和当前时刻的落座信息集合发送至参会用户的各个AR设备,这样,每个AR设备可以根据当前时刻的落座信息集合来确定自身用户的落座信息,以保证参会用户的落座信息不重复,进而避免在虚拟会议场景中出现人物重叠的现象。针对任意一个动作采集相机,在确定该动作采集相机对应的用户的落座信息后,接收该动作采集相机采集到的相应用户的动作数据;以及参会用户的音频数据和会议主讲用户的展示材料数据,由于一般不需要在自身的VR设备中看到自己的动作,因此,将动作数据发送至除该动作数据的来源用户之外的其他用户的AR设备,将参会用户的音频数据和会议主讲用户的展示材料数据发送至参会用户的各个AR设备;各个AR设备基于动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。整个过程具备真实感和沉浸感,并且,会议场景是真实的,且应用获取到的参会用户的动作信息来驱动相应用户的三维模型运动,提高临场感和与真实世界的交互能力。
根据示例性的实施方式中的第二方面,提供一种构建虚拟三维会议场景的方法,该方法包括:
若当前AR设备的关联用户登录会议系统,则接收来自服务器的除所述用户之外的其他用户的三维模型数据,以及材料展示位置信息和当前时刻的落座信息集合;
根据当前时刻的落座信息集合确定所述关联用户的落座信息;
接收来自服务器的参会用户中除所述关联用户之外的其他用户的动作数据、所述参会用户的音频数据和所述会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;每个用户的动作数据是所述用户所在的会议场景中的动作采集相机获取后发送给服务器的;
基于接收到的所述动作数据驱动相应的三维模型运动、将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放对应用户的音频数据。
本申请实施例,如果当前的AR设备的关联用户登录了会议系统,则AR设备接收来自服务器的除该关联用户之外的其他用户的三维模型数据,以及材料展示位置信息和当前时刻的落座信息集合,这样,设备可以根据当前时刻的落座信息集合来确定该用户的落座信息,以保证各个参会用户的落座信息不重复,进而避免在虚拟会议场景中出现人物重叠的现象。这样,当前AR设备接收来自服务器的除自身关联用户之外的动作数据以及参会用户的音频数据和会议主讲用户的展示材料数据,当前AR设备基于动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。当前AR设备为任意一个AR设备,因此,整个过程具备真实感和沉浸感,并且,会议场景是真实的,且应用获取到的参会用户的动作信息来驱动相应用户的三维模型运动,提高临场感和与真实世界的交互能力。
根据示例性的实施方式中的第三方面,提供一种构建虚拟三维会议场景的服务器,该服务器包括处理器、存储器以及至少一个外部通信接口,所述处理器、所述存储器以及所述外部通信接口均通过总线连接;
所述外部通信接口,被配置为接收用户的登录指令;
所述存储器中存储有计算机程序,所述处理器被配置为基于所述计算机程序执行以下操作:
若检测到当前用户登录会议系统,则将所述当前用户的三维模型数据发送至参会用户中除所述当前用户之外的其他用户的AR设备、将材料展示位置信息和当前时刻的落座信息集合发送至所述参会用户的各个的AR设备,以使各个所述AR设备根据所述当前时刻的落座信息集合确定对应用户的落座信息;
针对任意一个动作采集相机,在确定所述动作采集相机对应的用户的落座信息后,接收所述动作采集相机采集到的相应用户的动作数据;以及,接收所述参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;
针对任意一个用户的动作数据,将所述动作数据发送至所述参会用户中除所述一个用户之外的其他用户的AR设备、将所述参会用户的音频数据和所述会议主讲用户的展示材料数据发送至所述参会用户的各个AR设备,以使各个AR设备基于接收到的所述动作数据驱动相应的三维模型运动、将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放所述对应用户的音频数据。
根据示例性的实施方式中的第四方面,提供一种构建虚拟三维会议场景的AR设备,该AR设备包括处理器、存储器以及至少一个外部通信接口,所述处理器、所述存储器以及所述外部通信接口均通过总线连接;
所述外部通信接口,被配置为接收用户的登录成功的通知消息;
所述存储器中存储有计算机程序,所述处理器被配置为基于所述计算机程序执行以下操作:
若当前AR设备的关联用户登录会议系统,则接收来自服务器的除所述关联用户之外的其他用户的三维模型数据,以及,材料展示位置信息和当前时刻的落座信息集合;
根据当前时刻的落座信息集合确定所述关联用户的落座信息;
接收来自服务器的参会用户中除所述关联用户之外的其他用户的动作数据、所述参会用户的音频数据和所述会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;每个用户的动作数据是所述用户所在的会议场景中的动作采集相机获取后发送给服务器的;
基于接收到的所述动作数据驱动相应的三维模型运动、将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放对应用户的音频数据。
根据示例性的实施方式中的第五方面,提供一种构建虚拟三维会议场景的装置,该装置包括:
数据发送模块,用于若检测到当前用户登录会议系统,则将所述当前用户的三维模型数据发送至参会用户中除所述当前用户之外的其他用户的AR设备、将材料展示位置信息和当前时刻的落座信息集合发送至所述参会用户的各个AR设备,以使各个所述AR设备根据所述当前时刻的落座信息集合确定对应用户的落座信息;
第一数据接收模块,用于针对任意一个动作采集相机,在确定所述动作采集相机对应的用户的落座信息后,接收所述动作采集相机采集到的相应用户的动作数据;以及,接收所述参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;
第一场景构建模块,用于针对任意一个用户的动作数据,将所述动作数据发送至所述参会用户中除所述一个用户之外的其他用户的AR设备、将所述参会用户的音频数据和所述会议主讲用户的展示材料数据发送至所述参会用户的各个AR设备,以使各个AR设备基于接收到的所述动作数据驱动相应的三维模型运动、将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放所述对应用户的音频数据。
根据示例性的实施方式中的第六方面,提供一种构建虚拟三维会议场景的装置,该装置包括:
第二数据接收模块,用于在当前AR设备的关联用户登录会议系统时,接收来自服务器的除所述关联用户之外的其他用户的三维模型数据,以及,材料展示位置信息和当前时刻的落座信息集合;
落座信息确定模块,用于根据当前时刻的落座信息集合确定所述关联用户的落座信息;
第三数据接收模块,用于接收来自服务器的参会用户中除所述关联用户之外的其他用户的动作数据、所述参会用户的音频数据和所述会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;每个用户的动作数据是所述用户所在的会议场景中的动作采集相机获取后发送给服务器的;
第二场景构建模块,用于基于接收到的所述动作数据驱动相应的三维模型运动、将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放对应用户的音频数据。
根据示例性的实施方式中的第七方面,提供一种计算机存储介质,所述计算机存储介质中存储有计算机程序指令,当所述指令在计算机上运行时,使得所述计算机执行如第一方面和第二方面所述的构建虚拟三维会议场景的方法。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示例性示出了本发明实施例提供的一种构建虚拟三维会议场景时的真实会议场景的示意图;
图2示例性示出了本发明实施例提供的一种构建虚拟三维会议场景的系统示意图;
图3示例性示出了本发明实施例提供的一种构建虚拟三维会议场景的方法的流程图;
图4示例性示出了本发明实施例提供的一种会议场景中的会议区和采集区的示意图;
图5示例性示出了本发明实施例提供的一种构建虚拟三维会议场景的方法的流程图;
图6示例性示出了本发明实施例提供的一种构建虚拟三维会议场景的方法的信令流程图;
图7示例性示出了本发明实施例提供的一种构建虚拟三维会议场景的装置的结构示意图;
图8示例性示出了本发明实施例提供的一种构建虚拟三维会议场景的装置的结构示意图;
图9示例性示出了本发明实施例提供的一种构建虚拟三维会议场景的服务器的结构示意图;
图10示例性示出了本发明实施例提供的一种AR设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
为了方便理解,下面对本申请实施例中涉及的名词进行解释:
(1)三维重建:是指根据单视图或者多视图的图像重建三维信息的过程。对于一些静态场景、物体,通过三维重建后获得场景和物体的三维模型,然后即可通过渲染在三维场景中进行显示。但对于一些动态的物体,比如人物,往往是动态变化的,因此需要动态的建立一系列的三维模型,这些三维模型按顺序渲染显示,即可描述动态的人物动作。对于动态三维重建技术,一个应用方式是通过三维通讯系统,将采集设备采集重建后的三维模型传输给终端设备进行渲染显示,比如基于三维重建的虚拟社交就是一个重要应用场景,不同用户通过三维重建将各自的动态三维模型传输给其它用户,其它用户接收到这些数据后在各自的终端设备进行渲染显示,以达到身临其境的社交体验。
(2)AR(Augmented Reality,增强现实)设备:又称为AR头部显示设备。AR技术是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。在本申请实施例中,AR设备可以是AR眼镜。
(3)RGBD摄像机:其中的RGB是指色彩,D是指深度。普通的彩色相机拍摄到的图片能看到相机视角内的所有物体并记录下来,但是其所记录的数据不包含这些物体距离相机的距离。仅仅能通过图像的语义分析来判断物体的远近,但是并没有确切的数据。而深度相机则解决了该问题,通过深度相机获取到的数据,能准确知道图像中每个点离摄像头距离,这样加上该点在二维图像中的(x,y)坐标,就能获取图像中每个点的三维空间坐标。通过三维坐标就能还原真实场景,实现场景建模等。
下面对本申请实施例的思想进行概述。
传统的远程会议一般只能通过视频或者音频的形式进行,这种方式没有临场感和沉浸感,也无法进行有效和具有真实感的交互。近几年远程会议出现了虚拟会议的形式,用户可以通过选择一些预置的虚拟Avatar形象在一个虚拟的三维场景中进行会议,显示设备可以是PC、平板、手机,或VR头盔来进行,这种形式的虚拟会议具有较强的沉浸感,也可以在虚拟场景中进行自由的交互,但由于人物形象是预置的虚拟形象,真实感、临场感较差。
另外,虚拟会议有了新的形式,即运用三维重建技术将采集重建后的真人三维形象在虚拟场景中进行会议,这种形式的虚拟远程会议具有很强的沉浸感和真实感,也可以进行一些三维交互,因此具有很好的会议效果。但是由于整个会议场景都是以三维模型的形式虚拟出来的,无法与真实世界进行交互,临场感较差,因此在实际应用中具有一定的限制。
因此,如何搭建一个虚拟会议场景,具有较强的临场感、沉浸感和真实感,又可以与真实世界进行交互,十分重要。
为此,本申请实施例提供了一种构建虚拟三维会议场景的方法,该方法中,参会人员的形象利用采集的真人的图像或者视频数据重建后的真人三维形象,因此,具备沉浸感和真实感。并且,会议场景是真实的,在每个会议场景中设置了至少一个动作采集相机,服务器将收集到的各个动作采集相机采集到的相应用户的动作数据、动作采集相机或者AR设备采集到会议主讲用户的音频数据和展示材料数据发送至各个AR设备,这样,各个AR设备基于动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放会议主讲用户的音频数据。如此,真人的三维形象的动作都是跟随参会人员的真实动作的,因此,本申请实施例的技术方案还实现可与真实世界交互的效果,临场感较强。
在介绍完本申请实施例的设计思想之后,下面对本申请实施例的技术方案能够适用的应用场景做一些简单介绍,需要说明的是,以下介绍的应用场景仅用于说明本申请实施例而非限定。在具体实施时,可以根据实际需要灵活地应用本申请实施例提供的技术方案。
参考图1,示出了一种构建虚拟三维会议场景时的真实会议场景的示意图,其中,以参会人员分布在北京、上海、广州和深圳这四个城市为例,参会人员分别位于各自的会议场景(会议室)中。每个参会方均有一个真实的会议场景,并且为了使临场感、沉浸感和真实感更强,各个会议场景的空间部署信息相同,其中,空间部署信息包括会议场景的空间大小、会议桌的尺寸和位置、会议椅的尺寸和位置。会议场景的空间大小比如是包括长、宽和高;会议桌的尺寸比如是会议桌的长、宽和高;会议桌的位置比如是会议桌在会议室中的位置;会议椅的尺寸比如是会议椅的长、宽和高;会议椅的位置比如是各个会议椅在会议室中的位置或者相对于会议桌的位置。
图1中,示出了一个会议桌和四个会议椅,服务器将接收到的来自动作采集相机的相应用户(除自身AR设备对应的用户之外的用户)的动作数据,以及,接收参会用户(全部参加会议的用户)的音频数据和会议主讲用户的展示材料数据发送至各个AR设备,以使各个AR设备基于动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据,完成虚拟三维会议场景的构建。
需要说明的是,图1中的会议桌上设置至少一台动作采集相机,用来采集相应会议室中的用户的动作数据,图1中未示出。
另外,图2示出了一种构建虚拟三维会议场景的系统示意图,其中,示出了4个会议场景,每个会议场景中在会议桌上设置一台动作采集相机,每个会议场景中的一个参会用户佩戴一个AR眼镜。各个AR眼镜和服务器之间交互,来实现虚拟三维会议场景的构建。
为进一步说明本申请实施例提供的技术方案,下面结合附图以及具体实施方式对此进行详细的说明。虽然本申请实施例提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在方法中可以包括更多或者更少的操作步骤。在逻辑上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本申请实施例提供的执行顺序。
下面结合图1和图2,所示的应用场景,参考图3示出的一种构建虚拟三维会议场景的方法的流程图,对本申请实施例提供的技术方案进行说明。该方法由服务器执行,至少包括如下步骤:
S301、若检测到当前用户登录会议系统,则将当前用户的三维模型数据发送至参会用户中除当前用户之外的其他用户的AR设备、将材料展示位置信息和当前时刻的落座信息集合发送至参会用户的各个AR设备,以使各个AR设备根据当前时刻的落座信息集合确定对应用户的落座信息。
S302、针对任意一个动作采集相机,在确定动作采集相机对应的用户的落座信息后,接收动作采集相机采集到的相应用户的动作数据;以及,接收参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机。
S303、针对任意一个用户的动作数据,将动作数据发送至参会用户中除一个用户之外的其他用户的AR设备、将参会用户的音频数据和会议主讲用户的展示材料数据发送至参会用户的各个AR设备,以使各个AR设备基于接收到的动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。
本申请实施例,在检测到有用户登录会议系统后,由于当前用户的AR设备中通常已经有了自身的三维模型数据,因此将该用户的三维模型数据发送至参会用户中除当前用户之外的其他用户的AR设备,将材料展示位置信息和当前时刻的落座信息集合发送至参会用户的各个AR设备,这样,每个AR设备可以根据当前时刻的落座信息集合来确定自身用户的落座信息,以保证参会用户的落座信息不重复,进而避免在虚拟会议场景中出现人物重叠的现象。针对任意一个动作采集相机,在确定该动作采集相机对应的用户的落座信息后,接收该动作采集相机采集到的相应用户的动作数据;以及参会用户的音频数据和会议主讲用户的展示材料数据,由于一般不需要在自身的VR设备中看到自己的动作,因此,将动作数据发送至除该动作数据的来源用户之外的其他用户的AR设备,将参会用户的音频数据和会议主讲用户的展示材料数据发送至参会用户的各个AR设备;各个AR设备基于动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。整个过程具备真实感和沉浸感,并且,会议场景是真实的,且应用获取到的参会用户的动作信息来驱动相应用户的三维模型运动,提高临场感和与真实世界的交互能力。
首先对本申请实施例中的各个会议场景进行举例说明:
由于可以通过会议桌上的桌面标识确定用户的落座信息,这就需要各个会议椅与会议桌的位置对应关系与预先存储的位置关系一致。参见图4,预先存储的位置关系比如是,1号会议椅在1号桌面标识的一定距离处,2号会议椅在2号桌面标识的一定距离处,3号会议椅在3号桌面标识的一定距离处,4号会议椅在4号桌面标识的一定距离处。5号桌面标识用于确定材料展示位置信息。因此,在检测用户登录会议系统之前,后者用户落座之前,确定各个会议椅与会议桌的位置对应关系与预先存储的位置关系一致,如果不一致,则将调整消息发送至会议场景中动作采集相机关联的终端设备,以提示调整各个会议椅的位置。另外,不一致的情况还包括会议椅或者会议桌上的标识缺失的情况。不一致的会议椅对应的座位会标记为无效,用户无法落座。在实际的应用过程中,可以是参会人员调整,还可以是会议室中的其他人员调整。
在实际的应用过程中,可以在会议场景的一定范围内设置采集区,比如进入会议室之前的必经的设定区域,参会用户进入会议场景的采集区,采集区可以是矩形区域,则在4个角的位置设置4台RGBD摄像机,用于采集参会用户的图像或者视频信息。在实际的应用过程中,采集区还可以配置有与各个摄像机相连的PC或者平板电脑等,参会用户可以在PC或者平板电脑中输入个人身份信息,以便查询服务器中是否存储有该参会用户的历史三维模型数据。
这样,保证了各个会议椅与会议桌的位置对应关系与预先存储的位置关系一致,则可以通过AR眼镜扫描会议桌上的桌面标识确定用户的落座信息。
需要说明的是,采集区与会议区的位置关系可参考图4,采集区还可以设置参会人员经过的其他区域,这里只是举例说明,不形成具体限定。
涉及到S301,会议主讲用户通过终端(比如智能手机)启动会议系统,创建会议房间,并通过服务器将会议房间号和会议房间密码发送到各个其他用户的终端,用于其他用户登录会议系统。
示例性的,每个用户均佩戴AR设备,比如是AR眼镜,以其中一个参会地区为例,比如,服务器检测到了北京的用户A登录会议系统,则将用户A的三维模型数据发送除用户A之外的其他用户佩戴的AR设备。其中,三维模型数据可以是从预先存储的历史三维模型数据中获取的,还可以是根据获取到的图像或者视频信息生成的。
具体的,针对任意一个已登录用户,可以通过如下方式确定其三维模型数据:
第一种情况,若预先存储有已登录用户的历史三维模型数据,则确定历史三维模型数据为已登录用户的三维模型数据。
这种情况中,服务器中预先存储有已登录用户的历史三维模型数据,可以不向用户发送提示消息,直接应用该历史三维模型数据为该已登录用户的三维模型数据。
第二种情况,若预先存储有已登录用户的历史三维模型数据,则提示已登录用户是否应用历史三维模型数据,并根据接收到的表征应用历史三维模型数据的消息确定历史三维模型数据为已登录用户的三维模型数据。
这种情况中,服务器中预先存储有已登录用户的历史三维模型数据,服务器向该已登录用户发送是否应用历史三维模型数据的消息,接收用户反馈的表征继续应用该历史三维模型数据的消息后,确定该历史三维模型数据为已登录用户的三维模型数据。
第三种情况,若预先存储有已登录用户的历史三维模型数据,则提示已登录用户是否应用历史三维模型数据,在接收到表征拒绝应用历史三维模型数据的消息后,根据获取到的图像或视频信息生成已登录用户的三维模型数据。
这种情况中,服务器中预先存储有已登录用户的历史三维模型数据,服务器向该已登录用户发送是否应用历史三维模型数据的消息,接收用户反馈的表征拒绝应用该历史三维模型数据的消息后,根据获取到的图像或视频信息生成已登录用户的三维模型数据。其中,生成三维模型数据的具体过程可参见相关技术中的表述,这里不赘述。
第四种情况,若不存在已登录用户的历史三维模型数据,则根据获取到的图像或视频信息生成已登录用户的三维模型数据。
这种情况中,服务器中不存在已登录用户的历史三维模型数据,则直接根据获取到的图像或视频信息生成已登录用户的三维模型数据。
结合本申请实施例中的场景,获取图像或者视频信息的过程可以通过前述实施例中采集区设置的RGBD摄像机实现。
上述过程,服务器将已登录用户的三维模型数据发送至各个其他用户的AR设备。
另外,服务器将材料展示位置信息发送至参会用户的各个AR设备。具体的,可以根据会议场景的部署信息确定材料展示位置信息,材料展示位置信息可以是通过预先在会议桌上粘贴的标识码确定(比如是图4中的5号桌面标识),该标识码比如可以是二维码或者条形码,该展示位置信息中的展示高度信息可以预先设定。
另外,服务器将当前时刻的落座信息集合发送至参会用户的各个AR设备。具体的,由于各个AR设备在获取到相应用户的落座信息后,实时发送给服务器,而服务器则可以实时更新落座信息集合,落座信息集合中存储了哪个地区的哪个用户坐在了哪个座位的信息。因此,服务器在检测到用户登录会议系统后,将当前时刻的落座信息集合发送至该用户的AR设备,以便AR设备根据当前时刻的落座信息集合确定用户的落座信息。
在实际的应用过程中,针对任意一个AR设备,佩戴该AR设备的用户称为该AR设备的关联用户。关联用户的落座信息是通过关联用户关联的AR设备扫描关联用户落座后预设范围内的会议桌上的桌面标识确定的;当前时刻的落座信息集合为当前时刻各个会议椅的落座状态。
具体的,由于AR设备佩戴在用户头部,且内置了摄像头,这样,在用户落座后,相应的AR设备扫描用户落座后预设范围(比如正前方0.5米)内的会议桌上的桌面标识。
其中,AR设备根据当前时刻的落座信息集合确定关联用户的落座信息具体可以通过如下方式实现:将关联用户的初始落座信息与当前时刻的落座信息集合匹配,确定初始落座信息表征的座位是否处于空闲状态,若是,则确定初始落座信息为关联用户的落座信息;否则,确定处于空闲状态的座位标识,并根据座位标识对关联用户进行提示。
在上述实施例中,虽然每个会议场景中均有4个座位,但是对于整个虚拟会议场景来说,总共有4个座位,若有用户落座,则该位置不可用,否则会出现人物重叠的现象。如果当前座位可用,可以在该座位标识的上方增强现实提示语“该座位可落座”,用户可以坐下,并在AR眼镜中操作落座按钮,完成落座,通知服务器更新落座信息集合,并发送落座信息至当前会议场景中的动作采集相机。如果当前座位不可用,则该标识上方增强显示提示语“该座位已有人落座,请选择其它座位”。如果强行坐在已有人落座的座位,AR眼镜就无法操作落座按钮,此用户的三维模型也不会通过系统下发给其他用户,其他用户也无法通过AR眼镜看到该用户的三维模型形象。
具体的,比如各个地区的会议场景中均有4个会议椅,编号分别为1-4,且位置关系分别对应于会议桌上的桌面标识的1-4,也即,1号会议椅位于1号桌面标识附近,2号会议椅位于2号桌面标识附近,3号会议椅位于3号桌面标识附近,4号会议椅位于4号桌面标识附近。当前时刻的落座信息集合比如是1号和3号会议椅空闲,2号和4号会议椅已落座。
比如,用户扫描到了桌面上的2号桌面标识,则表明用户落座在了2号会议椅,该落座信息为用户的初始落座信息,通过当前时刻的落座信息集合确定2号会议椅未处于空闲状态,则确定处于空闲状态的会议椅为1号和3号,并且提示用户2号不可落座,此时用户去落座空闲状态的会议椅,比如3号,则确定3号为用户的落座信息。
又比如,用户扫描到了桌面上的1号位置,则表明用户落座在了1号会议椅,则1号会议椅空闲,则确定1号为用户的落座信息。
在实际的应用过程中,用户登录会议系统与用户落座之间无必然的联系,但是,为了表述清晰,可以假设用户在落座的同时登录用户系统。
如上,针对任意一个动作采集相机,其所在的会议室内的用户的落座信息确定后,服务器将该用户的落座信息发送至用户所在的会议场景中的动作采集相机,以便动作采集相机根据该落座信息调节拍摄方向。比如,上海的会议场景中的参会用户坐在了3号会议椅,则相应的动作采集相机调节自身拍摄方向至朝向3号位置。这样,动作采集相机可以开始拍摄过程。
在实际的应用过程中,会议桌上的动作采集相机采集用户肢体的动作数据时包括如下几种:
第一种、动作采集相机设置在会议桌桌面上,只能采集到用户上半身的动作数据(下半身被会议桌挡住),因此,只传输上半身的动作给服务器,其他用户接收到该用户的动作数据后只驱动模型的上半身。由于会议大多数情况用户坐在座位上参会,且上半身的肢体动作比下半身更重要,因此这种情况基本可以满足需求。
第二种、动作采集相机包括至少两个,以两个为例,其中一个设置在会议桌桌面上,用于采集用户上半身数据,另一个设置在会议桌桌面下,采集用户的下半身数据。两个动作采集相机采集到数据后进行融合处理后发送给服务器,其他用户接收到该用户的动作数据后可驱动三维模型的全身。
第三种、动作采集相机设置与会议桌桌面上,采集用户上半身的动作数据,用户下半身穿戴动作捕捉传感器,下半身数据由传感器捕捉。动作采集相机和传感器数据进行融合处理后发送给服务器,其他用户接收到该用户的动作数据后可以驱动三维模型的全身。
涉及到S302,针对任意一个动作采集相机,当其所在的会议室中的用户的落座信息确定后,该动作采集相机则可以进行拍摄,而无论是否为会议主讲用户,在整个会议过程中,每个参会用户均可能有动作。而对于音频数据,参会用户均有可能产生音频数据,即使是同一时刻,也可能有多个用户的音频数据,而展示材料数据通常来源于会议主讲用户。因此,服务器接收各个动作采集相机采集到的相应用户的动作数据,以及,接收参会用户的音频数据和会议主讲用户展示材料数据。示例性的,展示材料数据比如是幻灯片、文档、视频或图像等多种形式。
其中,音频数据可以由AR设备采集,也可以由相应的会议场景中的动作采集相机采集,可以根据实际情况选择其中一个作为音频采集设备,这里不进行限定。
涉及到S303,针对任意一个用户的动作数据,将该动作数据发送至除用户之外的其他用户的AR设备,将参会用户的音频数据和会议主讲用户的展示材料数据发送至各个AR设备,以使各个AR设备基于动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放相应用户的音频数据。
其中,各个AR设备在基于动作数据驱动相应的三维模型运动时,比如同一时刻用户M的胳膊动了一下,且用户N的头动了一下,则应用二者的动作数据确定相应的三维模型的相应部位进行运动。同时,将展示材料数据展示材料展示位置信息表征的位置,比如相应的会议桌上的材料展示标识处上方一定距离处。另外,还可以应用音频同步模块等,同步播放参会用户的音频数据。这样,各会议场景的虚拟显示器可同步显示会议情况。
因此,上述实施例提供了完整的、具有真实用户三维形象显示、声音传播和会议资料可视化共享、虚实融合的虚拟三维会议场景。
参考图5示出了一种构建虚拟三维会议场景的方法的流程图,对本申请实施例提供的技术方案进行说明。该方法由AR设备执行,针对任意一个AR设备,该方法至少包括如下步骤:
S501、若当前AR设备的关联用户登录会议系统,则接收来自服务器的除关联用户之外的其他用户的三维模型数据,以及,材料展示位置信息和当前时刻的落座信息集合。
S502、根据当前时刻的落座信息集合确定关联用户的落座信息。
S503、接收来自服务器的参会用户中除关联用户之外的其他用户的动作数据、参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;每个用户的动作数据是用户所在的会议场景中的动作采集相机获取后发送给服务器的。
S504、基于接收到的动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。
如上各个步骤的实现过程参见前述实施例的表述,在此不赘述。
本申请实施例,如果当前的AR设备的关联用户登录了会议系统,则AR设备接收来自服务器的除该关联用户之外的其他用户的三维模型数据,以及材料展示位置信息和当前时刻的落座信息集合,这样,设备可以根据当前时刻的落座信息集合来确定该用户的落座信息,以保证各个参会用户的落座信息不重复,进而避免在虚拟会议场景中出现人物重叠的现象。这样,当前AR设备接收来自服务器的除自身关联用户之外的动作数据以及参会用户的音频数据和会议主讲用户的展示材料数据,当前AR设备基于动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。当前AR设备为任意一个AR设备,因此,整个过程具备真实感和沉浸感,并且,会议场景是真实的,且应用获取到的参会用户的动作信息来驱动相应用户的三维模型运动,提高临场感和与真实世界的交互能力。
为了使本申请的技术方案更清晰,图6示出了一种构建虚拟三维会议场景的方法的信令流程图,其中:
S601、服务器检测是否有用户登录用户会议系统。
S602、若检测到当前用户登录会议系统,则针对每个已登录用户,将已登录用户的三维模型数据发送至参会用户中除该已登录用户之外的其他用户的AR设备,将材料展示位置信息和当前时刻的落座信息集合发送至各个AR设备。
S603、针对每个AR设备,AR设备根据当前时刻的落座信息集合确定自身的关联用户的落座信息。
S604、针对任意一个动作采集相机,在确定动作采集相机对应的用户的落座信息后,服务器接收该动作采集相机采集到的相应用户的动作数据,以及,接收参会用户的音频数据和会议主讲用户的展示材料数据。
S605、针对任意一个用户的动作数据,服务器将该动作数据发送至参会用户中除该用户之外的其他用户的AR设备,将参会用户的音频数据和会议主讲用户的展示材料数据发送至各个AR设备。
S606、各个AR设备基于动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放相应用户的音频数据。
本申请实施例,可以解决传统会议系统只能通过视频或者音频形式进行会议,缺乏临场感和沉浸感的问题,还可以解决常规虚拟会议系统只能在完全虚拟的场景中进行无法与真实世界交互的问题。
如图7所示,基于相同的发明构思,本发明实施例提供一种构建虚拟三维会议场景的装置,该装置集成在服务器,该装置包括数据发送模块71、第一数据接收模块72和第一场景构建模块73。
其中,数据发送模块71,用于若检测到当前用户登录会议系统,则将当前用户的三维模型数据发送至参会用户中除当前用户之外的其他用户的AR设备、将材料展示位置信息和当前时刻的落座信息集合发送至参会用户的各个AR设备,以使各个AR设备根据当前时刻的落座信息集合确定对应用户的落座信息;
第一数据接收模块72,用于针对任意一个动作采集相机,在确定动作采集相机对应的用户的落座信息后,接收动作采集相机采集到的相应用户的动作数据;以及,接收参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;
第一场景构建模块73,用于针对任意一个用户的动作数据,将动作数据发送至参会用户中除一个用户之外的其他用户的AR设备、将参会用户的音频数据和会议主讲用户的展示材料数据发送至参会用户的各个AR设备,以使各个AR设备基于接收到的动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。
在一些示例性的实施方式中,还包括三维模型数据确定模块,用于在将动作数据发送至参会用户中除一个用户之外的其他用户的AR设备、将参会用户的音频数据和会议主讲用户的展示材料数据发送至参会用户的各个AR设备之前:
若预先存储有已登录用户的历史三维模型数据,则确定历史三维模型数据为已登录用户的三维模型数据,或者,提示已登录用户是否应用历史三维模型数据,并根据接收到的表征应用历史三维模型数据的消息确定历史三维模型数据为已登录用户的三维模型数据;或
若不存在已登录用户的历史三维模型数据,则根据获取到的图像或视频信息生成已登录用户的三维模型数据。
在一些示例性的实施方式中,还包括落座信息发送模块,用于检测到当前用户登录会议系统之后,接收动作采集相机采集到的相应用户的动作数据之前:
将用户的落座信息发送至用户所在的会议场景中的动作采集相机,以使动作采集相机根据落座信息调节拍摄方向。
在一些示例性的实施方式中,各个会议场景的空间部署信息相同,其中,空间部署信息包括会议场景的空间大小、会议桌的尺寸和位置、会议椅的尺寸和位置;
还包括位置关系确定模块,用于在检测当前用户登录会议系统之前:
确定各个会议椅与会议桌的位置对应关系与预先存储的位置关系一致;
若不一致,则发送位置调整消息;其中,位置调整消息用于调整各个会议椅的位置。
如图8所示,基于相同的发明构思,本发明实施例提供一种构建虚拟三维会议场景的装置,该装置集成在AR设备,该装置包括第二数据接收模块81、落座信息确定模块82、第三数据接收模块83和第二场景构建模块84。
其中,第二数据接收模块81,用于在当前AR设备的关联用户登录会议系统时,接收来自服务器的除关联用户之外的其他用户的三维模型数据,以及,材料展示位置信息和当前时刻的落座信息集合;
落座信息确定模块82,用于根据当前时刻的落座信息集合确定关联用户的落座信息;
第三数据接收模块83,用于接收来自服务器的参会用户中除关联用户之外的其他用户的动作数据、参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;每个用户的动作数据是用户所在的会议场景中的动作采集相机获取后发送给服务器的;
第二场景构建模块84,用于基于接收到的动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。
在一些示例性的实施方式中,关联用户的落座信息是通过关联用户关联的AR设备扫描关联用户落座后预设范围内的会议桌上的桌面标识确定的;当前时刻的落座信息集合为当前时刻各个会议椅的落座状态;
落座信息确定模块82具体用于:
将关联用户的初始落座信息与当前时刻的落座信息集合匹配,确定初始落座信息表征的座位是否处于空闲状态,若是,则确定初始落座信息为关联用户的落座信息;
否则,确定处于空闲状态的座位标识,并根据座位标识对关联用户进行提示。
由于该装置即是本发明实施例中的方法中的装置,并且该装置解决问题的原理与该方法相似,因此该装置的实施可以参见方法的实施,重复之处不再赘述。
如图9所示,基于相同的发明构思,提供一种构建虚拟三维会议场景的服务器,该服务器包括处理器91、存储器92以及至少一个外部通信接口93,处理器91、存储器92以及外部通信接口93均通过总线94连接;
外部通信接口93,被配置为接收用户的登录指令;
存储器92中存储有计算机程序,处理器91被配置为基于计算机程序执行以下操作:
若检测到当前用户登录会议系统,则将当前用户的三维模型数据发送至参会用户中除当前用户之外的其他用户的AR设备、将材料展示位置信息和当前时刻的落座信息集合发送至参会用户的各个的AR设备,以使各个AR设备根据当前时刻的落座信息集合确定对应用户的落座信息;
针对任意一个动作采集相机,在确定动作采集相机对应的用户的落座信息后,接收动作采集相机采集到的相应用户的动作数据;以及,接收参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;
针对任意一个用户的动作数据,将动作数据发送至参会用户中除一个用户之外的其他用户的AR设备、将参会用户的音频数据和会议主讲用户的展示材料数据发送至参会用户的各个AR设备,以使各个AR设备基于接收到的动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。
在一些示例性的实施方式中,在将动作数据发送至参会用户中除一个用户之外的其他用户的AR设备、将参会用户的音频数据和会议主讲用户的展示材料数据发送至参会用户的各个AR设备之前,处理器91还被配置为执行:
若预先存储有已登录用户的历史三维模型数据,则确定历史三维模型数据为已登录用户的三维模型数据,或者,提示已登录用户是否应用历史三维模型数据,并根据接收到的表征应用历史三维模型数据的消息确定历史三维模型数据为已登录用户的三维模型数据;或
若不存在已登录用户的历史三维模型数据,则根据获取到的图像或视频信息生成已登录用户的三维模型数据。
在一些示例性的实施方式中,在检测到当前用户登录会议系统之后,接收动作采集相机采集到的相应用户的动作数据之前,处理器91还被配置为执行:
将对应用户的落座信息发送至用户所在的会议场景中的动作采集相机,以使动作采集相机根据落座信息调节拍摄方向。
在一些示例性的实施方式中,各个会议场景的空间部署信息相同,其中,空间部署信息包括会议场景的空间大小、会议桌的尺寸和位置、会议椅的尺寸和位置;
在检测用户登录会议系统之前,处理器91还被配置为执行:
确定各个会议椅与会议桌的位置对应关系与预先存储的位置关系一致;
若不一致,则发送位置调整消息;其中,位置调整消息用于调整各个会议椅的位置。
如图10所示,基于相同的发明构思,提供一种AR设备,该AR设备包括处理器101、存储器102以及至少一个外部通信接口103,处理器101、存储器102以及外部通信接口103均通过总线104连接;
外部通信接口103,被配置为接收用户的登录成功的通知消息;
存储器102中存储有计算机程序,处理器被配置为基于计算机程序执行以下操作:
若当前AR设备的关联用户登录会议系统,则接收来自服务器的除关联用户之外的其他用户的三维模型数据,以及,材料展示位置信息和当前时刻的落座信息集合;
根据当前时刻的落座信息集合确定关联用户的落座信息;
接收来自服务器的参会用户中除关联用户之外的其他用户的动作数据、参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;每个用户的动作数据是用户所在的会议场景中的动作采集相机获取后发送给服务器的;
基于接收到的动作数据驱动相应的三维模型运动、将展示材料数据展示在材料展示位置信息表征的位置,并且播放对应用户的音频数据。
在一些示例性的实施方式中,关联用户的落座信息是通过关联用户关联的AR设备扫描关联用户落座后预设范围内的会议桌上的桌面标识确定的;当前时刻的落座信息集合为当前时刻各个会议椅的落座状态;
处理器101被配置为执行:
根据当前时刻的落座信息集合确定关联用户的落座信息,包括:
将关联用户的初始落座信息与当前时刻的落座信息集合匹配,确定初始落座信息表征的座位是否处于空闲状态,若是,则确定初始落座信息为关联用户的落座信息;
否则,确定处于空闲状态的座位标识,并根据座位标识对关联用户进行提示。
本发明实施例还提供一种计算机存储介质,计算机存储介质中存储有计算机程序指令,当指令在计算机上运行时,使得计算机执行上述构建虚拟三维会议场景的方法的步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种构建虚拟三维会议场景的方法,其特征在于,包括:
若检测到当前用户登录会议系统,则将所述当前用户的三维模型数据发送至参会用户中除所述当前用户之外的其他用户的AR设备,将材料展示位置信息和当前时刻的落座信息集合发送至所述参会用户的各个AR设备,以使各个所述AR设备根据所述当前时刻的落座信息集合确定对应用户的落座信息;
针对任意一个动作采集相机,在确定所述动作采集相机对应的用户的落座信息后,接收所述动作采集相机采集到的相应用户的动作数据;以及,接收所述参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;
针对任意一个用户的动作数据,将所述动作数据发送至所述参会用户中除所述一个用户之外的其他用户的AR设备,将所述参会用户的音频数据和所述会议主讲用户的展示材料数据发送至所述参会用户的各个AR设备,以使各个AR设备基于接收到的所述动作数据驱动相应的三维模型运动,将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放所述对应用户的音频数据。
2.根据权利要求1所述的方法,其特征在于,所述将所述动作数据发送至所述参会用户中除所述一个用户之外的其他用户的AR设备、将所述参会用户的音频数据和所述会议主讲用户的展示材料数据发送至所述参会用户的各个AR设备之前,所述方法还包括:
若预先存储有已登录用户的历史三维模型数据,则确定所述历史三维模型数据为所述已登录用户的三维模型数据,或者,提示所述已登录用户是否应用所述历史三维模型数据,并根据接收到的表征应用所述历史三维模型数据的消息确定所述历史三维模型数据为所述已登录用户的三维模型数据,或者,提示所述已登录用户是否应用所述历史三维模型数据,在接收到表征拒绝应用所述历史三维模型数据的消息后,根据获取到的图像或视频信息生成所述已登录用户的三维模型数据;或
若不存在所述已登录用户的历史三维模型数据,则根据获取到的图像或视频信息生成所述已登录用户的三维模型数据。
3.根据权利要求1所述的方法,其特征在于,在检测到当前用户登录会议系统之后,接收所述动作采集相机采集到的相应用户的动作数据之前,所述方法还包括:
将对应用户的落座信息发送至所述用户所在的会议场景中的动作采集相机,以使所述动作采集相机根据所述落座信息调节拍摄方向。
4.根据权利要求1~3任一项所述的方法,其特征在于,各个会议场景的空间部署信息相同,其中,所述空间部署信息包括所述会议场景的空间大小、会议桌的尺寸和位置、会议椅的尺寸和位置;
在检测当前用户登录会议系统之前,所述方法还包括:
确定各个会议椅与会议桌的位置对应关系与预先存储的位置关系一致;
若不一致,则发送位置调整消息;其中,所述位置调整消息用于调整各个会议椅的位置。
5.一种构建虚拟三维会议场景的方法,其特征在于,包括:
若当前AR设备的关联用户登录会议系统,则接收来自服务器的除所述关联用户之外的其他用户的三维模型数据,以及,材料展示位置信息和当前时刻的落座信息集合;
根据当前时刻的落座信息集合确定所述关联用户的落座信息;
接收来自服务器的参会用户中除所述关联用户之外的其他用户的动作数据、所述参会用户的音频数据和所述会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;每个用户的动作数据是所述用户所在的会议场景中的动作采集相机获取后发送给服务器的;
基于接收到的所述动作数据驱动相应的三维模型运动、将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放对应用户的音频数据。
6.根据权利要求5所述的方法,其特征在于,所述关联用户的落座信息是通过所述当前AR设备扫描所述关联用户落座后预设范围内的会议桌上的桌面标识确定的;所述当前时刻的落座信息集合为当前时刻各个会议椅的落座状态;
所述根据当前时刻的落座信息集合确定所述关联用户的落座信息,包括:
将所述关联用户的初始落座信息与所述当前时刻的落座信息集合匹配,确定所述初始落座信息表征的座位是否处于空闲状态,若是,则确定所述初始落座信息为所述关联用户的落座信息;
否则,确定处于空闲状态的座位标识,并根据所述座位标识对所述关联用户进行提示。
7.一种构建虚拟三维会议场景的服务器,其特征在于,包括处理器、存储器以及至少一个外部通信接口,所述处理器、所述存储器以及所述外部通信接口均通过总线连接;
所述外部通信接口,被配置为接收用户的登录指令;
所述存储器中存储有计算机程序,所述处理器被配置为基于所述计算机程序执行以下操作:
若检测到当前用户登录会议系统,则将所述当前用户的三维模型数据发送至参会用户中除所述当前用户之外的其他用户的AR设备、将材料展示位置信息和当前时刻的落座信息集合发送至所述参会用户的各个的AR设备,以使各个所述AR设备根据所述当前时刻的落座信息集合确定对应用户的落座信息;
针对任意一个动作采集相机,在确定所述动作采集相机对应的用户的落座信息后,接收所述动作采集相机采集到的相应用户的动作数据;以及,接收所述参会用户的音频数据和会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;
针对任意一个用户的动作数据,将所述动作数据发送至所述参会用户中除所述一个用户之外的其他用户的AR设备、将所述参会用户的音频数据和所述会议主讲用户的展示材料数据发送至所述参会用户的各个AR设备,以使各个AR设备基于接收到的所述动作数据驱动相应的三维模型运动、将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放所述对应用户的音频数据。
8.根据权利要求7所述的服务器,其特征在于,在所述将所述动作数据发送至所述参会用户中除所述一个用户之外的其他用户的AR设备、将所述参会用户的音频数据和所述会议主讲用户的展示材料数据发送至所述参会用户的各个AR设备之前,所述处理器还被配置为执行:
若预先存储有已登录用户的历史三维模型数据,则确定所述历史三维模型数据为所述已登录用户的三维模型数据,或者,提示所述已登录用户是否应用所述历史三维模型数据,并根据接收到的表征应用所述历史三维模型数据的消息确定所述历史三维模型数据为所述已登录用户的三维模型数据;或
若不存在所述已登录用户的历史三维模型数据,则根据获取到的图像或视频信息生成所述已登录用户的三维模型数据。
9.根据权利要求7所述的服务器,其特征在于,在检测到当前用户登录会议系统之后,接收所述动作采集相机采集到的相应用户的动作数据之前,所述处理器还被配置为执行:
将对应用户的落座信息发送至所述用户所在的会议场景中的动作采集相机,以使所述动作采集相机根据所述落座信息调节拍摄方向。
10.一种构建虚拟三维会议场景的AR设备,其特征在于,包括处理器、存储器以及至少一个外部通信接口,所述处理器、所述存储器以及所述外部通信接口均通过总线连接;
所述外部通信接口,被配置为接收当前AR设备的关联用户的登录成功的通知消息;
所述存储器中存储有计算机程序,所述处理器被配置为基于所述计算机程序执行以下操作:
若当前AR设备的关联用户登录会议系统,则接收来自服务器的除所述关联用户之外的其他用户的三维模型数据,以及,材料展示位置信息和当前时刻的落座信息集合;
根据当前时刻的落座信息集合确定所述关联用户的落座信息;
接收来自服务器的参会用户中除所述关联用户之外的其他用户的动作数据、所述参会用户的音频数据和所述会议主讲用户的展示材料数据;其中,一个会议场景中包括至少一个动作采集相机;每个用户的动作数据是所述用户所在的会议场景中的动作采集相机获取后发送给服务器的;
基于接收到的所述动作数据驱动相应的三维模型运动、将所述展示材料数据展示在所述材料展示位置信息表征的位置,并且播放对应用户的音频数据。
CN202210082437.9A 2022-01-24 2022-01-24 一种构建虚拟三维会议场景的方法、服务器和ar设备 Pending CN114549744A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210082437.9A CN114549744A (zh) 2022-01-24 2022-01-24 一种构建虚拟三维会议场景的方法、服务器和ar设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210082437.9A CN114549744A (zh) 2022-01-24 2022-01-24 一种构建虚拟三维会议场景的方法、服务器和ar设备

Publications (1)

Publication Number Publication Date
CN114549744A true CN114549744A (zh) 2022-05-27

Family

ID=81670990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210082437.9A Pending CN114549744A (zh) 2022-01-24 2022-01-24 一种构建虚拟三维会议场景的方法、服务器和ar设备

Country Status (1)

Country Link
CN (1) CN114549744A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115640953A (zh) * 2022-09-13 2023-01-24 深圳会邦科技有限公司 一种会务智能化数字处理方法、系统、设备及介质
CN117041474A (zh) * 2023-09-07 2023-11-10 腾讯烟台新工科研究院 一种基于虚拟现实和人工智能技术的远程会议系统及方法
CN117152349A (zh) * 2023-08-03 2023-12-01 无锡泰禾宏科技有限公司 基于ar与大数据分析的虚拟场景自适应构建系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090033737A1 (en) * 2007-08-02 2009-02-05 Stuart Goose Method and System for Video Conferencing in a Virtual Environment
CN102571633A (zh) * 2012-01-09 2012-07-11 华为技术有限公司 展示用户状态的方法、展示终端以及服务器
KR20150057424A (ko) * 2013-11-19 2015-05-28 한국전자통신연구원 증강현실 아바타 상호작용 방법 및 시스템
CN108933913A (zh) * 2017-05-24 2018-12-04 中兴通讯股份有限公司 一种视频会议实现方法、装置、系统及计算机存储介质
CN109876450A (zh) * 2018-12-14 2019-06-14 深圳壹账通智能科技有限公司 基于ar游戏的实现方法、服务器、计算机设备及存储介质
CN110060351A (zh) * 2019-04-01 2019-07-26 叠境数字科技(上海)有限公司 一种基于rgbd相机的动态三维人物重建和直播方法
CN110662083A (zh) * 2019-09-30 2020-01-07 北京达佳互联信息技术有限公司 数据处理方法、装置、电子设备及存储介质
CN111064919A (zh) * 2019-12-09 2020-04-24 零空间(北京)科技有限公司 一种vr远程会议方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090033737A1 (en) * 2007-08-02 2009-02-05 Stuart Goose Method and System for Video Conferencing in a Virtual Environment
CN102571633A (zh) * 2012-01-09 2012-07-11 华为技术有限公司 展示用户状态的方法、展示终端以及服务器
KR20150057424A (ko) * 2013-11-19 2015-05-28 한국전자통신연구원 증강현실 아바타 상호작용 방법 및 시스템
CN108933913A (zh) * 2017-05-24 2018-12-04 中兴通讯股份有限公司 一种视频会议实现方法、装置、系统及计算机存储介质
CN109876450A (zh) * 2018-12-14 2019-06-14 深圳壹账通智能科技有限公司 基于ar游戏的实现方法、服务器、计算机设备及存储介质
CN110060351A (zh) * 2019-04-01 2019-07-26 叠境数字科技(上海)有限公司 一种基于rgbd相机的动态三维人物重建和直播方法
CN110662083A (zh) * 2019-09-30 2020-01-07 北京达佳互联信息技术有限公司 数据处理方法、装置、电子设备及存储介质
CN111064919A (zh) * 2019-12-09 2020-04-24 零空间(北京)科技有限公司 一种vr远程会议方法及装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115640953A (zh) * 2022-09-13 2023-01-24 深圳会邦科技有限公司 一种会务智能化数字处理方法、系统、设备及介质
CN115640953B (zh) * 2022-09-13 2023-08-08 深圳会邦科技有限公司 一种会务智能化数字处理方法、系统、设备及介质
CN117152349A (zh) * 2023-08-03 2023-12-01 无锡泰禾宏科技有限公司 基于ar与大数据分析的虚拟场景自适应构建系统及方法
CN117152349B (zh) * 2023-08-03 2024-02-23 无锡泰禾宏科技有限公司 基于ar与大数据分析的虚拟场景自适应构建系统及方法
CN117041474A (zh) * 2023-09-07 2023-11-10 腾讯烟台新工科研究院 一种基于虚拟现实和人工智能技术的远程会议系统及方法
CN117041474B (zh) * 2023-09-07 2024-06-18 腾讯烟台新工科研究院 一种基于虚拟现实和人工智能技术的远程会议系统及方法

Similar Documents

Publication Publication Date Title
US10535181B2 (en) Virtual viewpoint for a participant in an online communication
US11228622B2 (en) Multiuser asymmetric immersive teleconferencing
Pejsa et al. Room2room: Enabling life-size telepresence in a projected augmented reality environment
KR101918262B1 (ko) 혼합 현실 서비스 제공 방법 및 시스템
Kim et al. Telehuman: effects of 3d perspective on gaze and pose estimation with a life-size cylindrical telepresence pod
Apostolopoulos et al. The road to immersive communication
CN114549744A (zh) 一种构建虚拟三维会议场景的方法、服务器和ar设备
KR102108596B1 (ko) 제어된 3차원 통신 엔드포인트
US7840638B2 (en) Participant positioning in multimedia conferencing
CN114365197A (zh) 在具有多个物理参与者的环境中放置虚拟内容
CN111064919A (zh) 一种vr远程会议方法及装置
US20120274736A1 (en) Methods and systems for communicating focus of attention in a video conference
US11609682B2 (en) Methods and systems for providing a communication interface to operate in 2D and 3D modes
CN110427227B (zh) 虚拟场景的生成方法、装置、电子设备及存储介质
WO2021246183A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
CN112188223B (zh) 直播视频播放方法、装置、设备及介质
US20230236713A1 (en) Established perspective user interface and user experience for video meetings
Regenbrecht et al. Mutual gaze support in videoconferencing reviewed
US20220200815A1 (en) Full dome conference
Nakanishi et al. Robotic table and bench enhance mirror type social telepresence
US11910132B2 (en) Head tracking for video communications in a virtual environment
EP2355500A1 (en) Method and system for conducting a video conference with a consistent viewing angle
CN114201039B (zh) 一种实现虚拟现实的显示设备
US20180160078A1 (en) System and Method for Producing Three-Dimensional Images from a Live Video Production that Appear to Project Forward of or Vertically Above an Electronic Display
Le et al. HybridMingler: Towards Mixed-Reality Support for Mingling at Hybrid Conferences

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination