CN114518825A - 一种基于xr技术的人机交互方法及系统 - Google Patents

一种基于xr技术的人机交互方法及系统 Download PDF

Info

Publication number
CN114518825A
CN114518825A CN202210135999.5A CN202210135999A CN114518825A CN 114518825 A CN114518825 A CN 114518825A CN 202210135999 A CN202210135999 A CN 202210135999A CN 114518825 A CN114518825 A CN 114518825A
Authority
CN
China
Prior art keywords
visual angle
image
user
feature
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210135999.5A
Other languages
English (en)
Inventor
曾祥洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Tapuyu Network Technology Co ltd
Original Assignee
Guangzhou Tapuyu Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Tapuyu Network Technology Co ltd filed Critical Guangzhou Tapuyu Network Technology Co ltd
Priority to CN202210135999.5A priority Critical patent/CN114518825A/zh
Publication of CN114518825A publication Critical patent/CN114518825A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明公开了一种基于XR技术的人机交互方法及系统,包括:基于交互任务,通过采集用户位置和用户观察视角,获取用户的主视角图像、辅助视角图像,以及主视角图像和辅助视角图像之间的配置方法和融合模式;基于用户观察视角和用户位置,根据配置方法和融合模式,构建基于用户观察视角的多视角融合图像,用于为用户提供不同的视角图像;本发明通过采集用户的不同指令,根据用户的位置生成对应该用户位置多视角图像,用户能够通过切换主视角图像和辅助视角图像,或者通过选择图像中的特征点,来进行多角度图像的观察,实现了对于同一物体的多角度观察的技术需求,并为多用户融合的人机交互智能处理技术提供了技术参考。

Description

一种基于XR技术的人机交互方法及系统
技术领域
本发明涉及XR技术领域,尤其涉及一种基于XR技术的人机交互方法及系统。
背景技术
XR(Extended Reality,扩展现实)是指通过计算机技术和可穿戴设备产生的一个真实与虚拟组合、可人机交互的环境,是AR、VR、MR等多种形式的统称。三者视觉交互技术融合,实现虚拟世界与现实世界之间无缝转换的“沉浸感”体验。
现有的XR技术,大多是以物体的主视角为基础,进行沉浸感体验,每位体验者在不同位置处观察同一物体时,往往看到的是同一视角下的物体形态,缺乏在同一空间内,对于该物体从不同视角下的全方位观察体验;并且,现有的全方位观察方法,是以物体为中点进行环绕式旋转,用户的体验较差,且画面缺乏违和感;因此,急需一种基于XR技术的人机交互方法及系统,用于增强用户体验感,并且实现在不同位置处视角随之变化的技术效果。
发明内容
为了解决上述技术问题,本发明提供了一种基于XR技术的人机交互方法,包括以下步骤:
基于交互任务,通过采集用户位置和用户观察视角,获取用户的主视角图像、辅助视角图像,以及主视角图像和辅助视角图像之间的配置方法和融合模式,其中,用户观察视角包括第一人称视角和/或第三人称视角;
基于用户观察视角和用户位置,根据配置方法和融合模式,构建基于用户观察视角的多视角融合图像,用于为用户提供不同的视角图像,其中,视角图像包括主视角图像和/或辅助视角图像。
优选地,在采集用户观察视角的过程中,根据用户位置,通过采集用户的用户指令,获取交互任务,其中,用户指令包括语音指令和/或动作指令。
优选地,在获取视角图像的过程中,根据交互任务的任务类型,获取视角图像,其中,任务类型用于表示用户对于视角图像的成像要求
根据成像要求,获取配置方法和融合模式。
优选地,在获取交互任务的过程中,当交互任务对近距离空间的观察感知能力要求较高,对于远距离空间的感知能力要求较低时,用户观察视角为第一人称视角为主视角,多视角融合图像为主视角图像;
当交互任务对于近距离空间和远距离空间的观察感知能力都要求一般时,用户观察视角为第一人称视角或第三人称视角为主视角,多视角融合图像为主视角图像或辅助视角图像;
当交互任务对于近距离空间和远距离空间的观察感知能力都要求较高时,用户观察视角为第一人称视角和/或第三人称视角为主视角,多视角融合图像为主视角图像和辅助视角图像的融合图像;
当交互任务对近距离空间的观察感知能力要求较低,对于远距离空间的感知能力要求较高时,用户观察视角为第三人称视角为主视角,多视角融合图像为辅助视角图像。
优选地,在当交互任务对于近距离空间和远距离空间的观察感知能力都要求一般的过程中,基于主视角图像的第一边缘,获取第一边缘对应的辅助视角图像,并将辅助视角图像与主视角图像进行拼接,生成多视角融合图像,其中,用户通过用户指令,切换主视角图像和辅助视角图像。
优选地,在当交互任务对于近距离空间和远距离空间的观察感知能力都要求较高的过程中,根据主视角图像的第一特征,采集第一特征在辅助视角图像对应的第二特征,将第二特征对应的图像,融合到主视角图像中,其中,用户通过选择第一特征,获取第二特征。
优选地,在当交互任务对于近距离空间和远距离空间的观察感知能力都要求较高的过程中,根据辅助视角图像的第三特征,采集第三特征在辅助视角图像对应的第四特征,将第四特征对应的图像,融合到辅助视角图像中,其中,用户通过选择第三特征,获取第四特征。
优选地,在为用户提供不同的视角图像的过程中,用户通过选择第一特征和第三特征,获取第二特征和第四特征对应的多视角融合图像;
用户通过选择第一特征和第四特征,获取第二特征和第三特征对应的多视角融合图像;
用户通过选择第二特征和第三特征,获取第一特征和第四特征对应的多视角融合图像;
用户通过选择第二特征和第四特征,获取第一特征和第三特征对应的多视角融合图像。
本发明还公开了一种基于XR技术的人机交互系统,包括:
交互任务获取模块,用于根据用户位置,通过采集用户的用户指令,获取交互任务,其中,用户指令包括语音指令和/或动作指令;
数据处理模块,用于基于交互任务,通过采集用户位置和用户观察视角,获取用户的主视角图像、辅助视角图像,以及主视角图像和辅助视角图像之间的配置方法和融合模式,其中,用户观察视角包括第一人称视角和/或第三人称视角;
图像融合模块,用于基于用户观察视角和用户位置,根据配置方法和融合模式,构建基于用户观察视角的多视角融合图像,用于为用户提供不同的视角图像,其中,视角图像包括主视角图像和/或辅助视角图像。
优选地,人机交互系统还包括:
指令获取模块,用于通过采集用户的语音和动作,获取用户的语音指令和动作指令;
数据存储模块,用于存储视角图像;
数据融合模块,用于通过采集不同用户对于同一物体的视角图像,根据每个视角图像的相同特征进行图像融合,生成多视角融合图像。
本发明公开了以下技术效果:
与现有技术相比,本发明提供的一种基于XR技术的人机交互方法及系统,通过采集用户的不同指令,根据用户的位置生成对应该用户位置多视角图像,用户能够通过切换主视角图像和辅助视角图像,或者通过选择图像中的特征点,来进行多角度图像的观察,实现了对于同一物体的多角度观察的技术需求,并为多用户融合的人机交互智能处理技术提供了技术参考。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明所述的方法流程示意图;
图2为本发明所述的系统结构示意图。
具体实施方式
下为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1-2所示,本发明提供了一种基于XR技术的人机交互方法,包括以下步骤:
基于交互任务,通过采集用户位置和用户观察视角,获取用户的主视角图像、辅助视角图像,以及主视角图像和辅助视角图像之间的配置方法和融合模式,其中,用户观察视角包括第一人称视角和/或第三人称视角;
基于用户观察视角和用户位置,根据配置方法和融合模式,构建基于用户观察视角的多视角融合图像,用于为用户提供不同的视角图像,其中,视角图像包括主视角图像和/或辅助视角图像。
进一步优选地,在采集用户观察视角的过程中,根据用户位置,通过采集用户的用户指令,获取交互任务,其中,用户指令包括语音指令和/或动作指令。
进一步优选地,在获取视角图像的过程中,根据交互任务的任务类型,获取视角图像,其中,任务类型用于表示用户对于视角图像的成像要求
根据成像要求,获取配置方法和融合模式。
进一步优选地,在获取交互任务的过程中,当交互任务对近距离空间的观察感知能力要求较高,对于远距离空间的感知能力要求较低时,用户观察视角为第一人称视角为主视角,多视角融合图像为主视角图像;
当交互任务对于近距离空间和远距离空间的观察感知能力都要求一般时,用户观察视角为第一人称视角或第三人称视角为主视角,多视角融合图像为主视角图像或辅助视角图像;
当交互任务对于近距离空间和远距离空间的观察感知能力都要求较高时,用户观察视角为第一人称视角和/或第三人称视角为主视角,多视角融合图像为主视角图像和辅助视角图像的融合图像;
当交互任务对近距离空间的观察感知能力要求较低,对于远距离空间的感知能力要求较高时,用户观察视角为第三人称视角为主视角,多视角融合图像为辅助视角图像。
进一步优选地,在当交互任务对于近距离空间和远距离空间的观察感知能力都要求一般的过程中,基于主视角图像的第一边缘,获取第一边缘对应的辅助视角图像,并将辅助视角图像与主视角图像进行拼接,生成多视角融合图像,其中,用户通过用户指令,切换主视角图像和辅助视角图像。
优选地,在当交互任务对于近距离空间和远距离空间的观察感知能力都要求较高的过程中,根据主视角图像的第一特征,采集第一特征在辅助视角图像对应的第二特征,将第二特征对应的图像,融合到主视角图像中,其中,用户通过选择第一特征,获取第二特征。
进一步优选地,在当交互任务对于近距离空间和远距离空间的观察感知能力都要求较高的过程中,根据辅助视角图像的第三特征,采集第三特征在辅助视角图像对应的第四特征,将第四特征对应的图像,融合到辅助视角图像中,其中,用户通过选择第三特征,获取第四特征。
进一步优选地,在为用户提供不同的视角图像的过程中,用户通过选择第一特征和第三特征,获取第二特征和第四特征对应的多视角融合图像;
用户通过选择第一特征和第四特征,获取第二特征和第三特征对应的多视角融合图像;
用户通过选择第二特征和第三特征,获取第一特征和第四特征对应的多视角融合图像;
用户通过选择第二特征和第四特征,获取第一特征和第三特征对应的多视角融合图像。
本发明还公开了一种基于XR技术的人机交互系统,包括:
交互任务获取模块,用于根据用户位置,通过采集用户的用户指令,获取交互任务,其中,用户指令包括语音指令和/或动作指令;
数据处理模块,用于基于交互任务,通过采集用户位置和用户观察视角,获取用户的主视角图像、辅助视角图像,以及主视角图像和辅助视角图像之间的配置方法和融合模式,其中,用户观察视角包括第一人称视角和/或第三人称视角;
图像融合模块,用于基于用户观察视角和用户位置,根据配置方法和融合模式,构建基于用户观察视角的多视角融合图像,用于为用户提供不同的视角图像,其中,视角图像包括主视角图像和/或辅助视角图像。
进一步优选地,人机交互系统还包括:
指令获取模块,用于通过采集用户的语音和动作,获取用户的语音指令和动作指令;
数据存储模块,用于存储视角图像;
数据融合模块,用于通过采集不同用户对于同一物体的视角图像,根据每个视角图像的相同特征进行图像融合,生成多视角融合图像。
本发明还公开了一种基于XR技术的人机交互装置,包括:
智能电子屏幕,用于为用户提供视角图像;
智能眼镜,用于为用户根据视角图像,提供多视角融合图像;
智能眼镜与智能电子屏幕通过蓝牙或5G通信技术进行数据交互,并在区域内设置云端服务器,为智能眼镜和智能电子屏幕提供视角图像,云端服务器会根据智能眼镜与智能电子屏幕的相对距离,产生对应的位置距离的多视角融合图像,并将该多视角融合图像传输到智能眼镜上,当不存在智能电子屏幕时,用户可以通过智能眼镜采集当前物体的图像,与云端服务器进行特征比对,用户通过选择比对结果对应的多视角融合图像,在智能眼镜上进行图像显示;用户还可以直接从云端服务器调用现有的多视角融合图像进行显示,并基于多视角融合图像与现实物体进行特征融合,当具有融合特征时,进行特征拼接或融合,生成视角图像,其中,该拼接或融合的规则,更多取决于现实物体的形状、颜色、种类。
本发明提到的XR技术是将AR、VR、MR等技术结合起来,突破了现实和虚拟的界限,实现了现实和虚拟的交融。XR技术是将AR、VR、MR等核心技术深度融合在一起,将电脑技术和可佩戴装置融合在一起,创造出一个虚拟和现实的互动场景。
本发明提供的5G+XR技术组合生成的多视角融合图像,能够广泛应用于社交、办公、娱乐、展览、教育等大批新应用场景,这将为XR产业提供广阔的发展空间,通过为用户提供不同位置的多视角融合图像,将虚拟世界更加现实化,同时也将现实世界更加虚拟化,可以预料的是,通过大数据的方法,将一些实现标准物体进行虚拟化,当融合了本发明提到的多视角融合方案时,有助于用户进行虚拟现实的融合比对,为当前物体的缺陷检测、特征观察等应用领域也提供了一种可行性的解决方案。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种基于XR技术的人机交互方法,其特征在于,包括以下步骤:
基于交互任务,通过采集用户位置和用户观察视角,获取用户的主视角图像、辅助视角图像,以及所述主视角图像和所述辅助视角图像之间的配置方法和融合模式,其中,所述用户观察视角包括第一人称视角和/或第三人称视角;
基于所述用户观察视角和所述用户位置,根据所述配置方法和融合模式,构建基于所述用户观察视角的多视角融合图像,用于为所述用户提供不同的视角图像,其中,所述视角图像包括所述主视角图像和/或所述辅助视角图像。
2.根据权利要求1所述一种基于XR技术的人机交互方法,其特征在于:
在采集用户观察视角的过程中,根据所述用户位置,通过采集所述用户的用户指令,获取所述交互任务,其中,所述用户指令包括语音指令和/或动作指令。
3.根据权利要求2所述一种基于XR技术的人机交互方法,其特征在于:
在获取所述视角图像的过程中,根据所述交互任务的任务类型,获取所述视角图像,其中,所述任务类型用于表示所述用户对于所述视角图像的成像要求
根据所述成像要求,获取所述配置方法和所述融合模式。
4.根据权利要求3所述一种基于XR技术的人机交互方法,其特征在于:
在获取所述交互任务的过程中,当所述交互任务对近距离空间的观察感知能力要求较高,对于远距离空间的感知能力要求较低时,所述用户观察视角为所述第一人称视角为主视角,所述多视角融合图像为所述主视角图像;
当所述交互任务对于所述近距离空间和所述远距离空间的观察感知能力都要求一般时,所述用户观察视角为所述第一人称视角或第三人称视角为所述主视角,所述多视角融合图像为所述主视角图像或所述辅助视角图像;
当所述交互任务对于所述近距离空间和所述远距离空间的观察感知能力都要求较高时,所述用户观察视角为所述第一人称视角和/或所述第三人称视角为主视角,所述多视角融合图像为所述主视角图像和所述辅助视角图像的融合图像;
当所述交互任务对近距离空间的观察感知能力要求较低,对于远距离空间的感知能力要求较高时,所述用户观察视角为所述第三人称视角为主视角,所述多视角融合图像为所述辅助视角图像。
5.根据权利要求4所述一种基于XR技术的人机交互方法,其特征在于:
在当所述交互任务对于所述近距离空间和所述远距离空间的观察感知能力都要求一般的过程中,基于所述主视角图像的第一边缘,获取所述第一边缘对应的所述辅助视角图像,并将所述辅助视角图像与所述主视角图像进行拼接,生成所述多视角融合图像,其中,所述用户通过所述用户指令,切换所述主视角图像和所述辅助视角图像。
6.根据权利要求5所述一种基于XR技术的人机交互方法,其特征在于:
在当所述交互任务对于所述近距离空间和所述远距离空间的观察感知能力都要求较高的过程中,根据所述主视角图像的第一特征,采集所述第一特征在所述辅助视角图像对应的第二特征,将所述第二特征对应的图像,融合到所述主视角图像中,其中,所述用户通过选择所述第一特征,获取所述第二特征。
7.根据权利要求6所述一种基于XR技术的人机交互方法,其特征在于:
在当所述交互任务对于所述近距离空间和所述远距离空间的观察感知能力都要求较高的过程中,根据所述辅助视角图像的第三特征,采集所述第三特征在所述辅助视角图像对应的第四特征,将所述第四特征对应的图像,融合到所述辅助视角图像中,其中,所述用户通过选择所述第三特征,获取所述第四特征。
8.根据权利要求7所述一种基于XR技术的人机交互方法,其特征在于:
在为所述用户提供不同的视角图像的过程中,所述用户通过选择所述第一特征和所述第三特征,获取所述第二特征和所述第四特征对应的所述多视角融合图像;
所述用户通过选择所述第一特征和所述第四特征,获取所述第二特征和所述第三特征对应的所述多视角融合图像;
所述用户通过选择第二特征和所述第三特征,获取所述第一特征和所述第四特征对应的所述多视角融合图像;
所述用户通过选择所述第二特征和所述第四特征,获取所述第一特征和所述第三特征对应的所述多视角融合图像。
9.一种基于XR技术的人机交互系统,其特征在于,包括:
交互任务获取模块,用于根据用户位置,通过采集用户的用户指令,获取交互任务,其中,所述用户指令包括语音指令和/或动作指令;
数据处理模块,用于基于所述交互任务,通过采集所述用户位置和用户观察视角,获取所述用户的主视角图像、辅助视角图像,以及所述主视角图像和所述辅助视角图像之间的配置方法和融合模式,其中,所述用户观察视角包括第一人称视角和/或第三人称视角;
图像融合模块,用于基于所述用户观察视角和所述用户位置,根据所述配置方法和融合模式,构建基于所述用户观察视角的多视角融合图像,用于为所述用户提供不同的视角图像,其中,所述视角图像包括所述主视角图像和/或所述辅助视角图像。
10.根据权利要求9所述一种基于XR技术的人机交互系统,其特征在于:
所述人机交互系统还包括:
指令获取模块,用于通过采集所述用户的语音和动作,获取所述用户的所述语音指令和所述动作指令;
数据存储模块,用于存储所述视角图像;
数据融合模块,用于通过采集不同用户对于同一物体的所述视角图像,根据每个所述视角图像的相同特征进行图像融合,生成所述多视角融合图像。
CN202210135999.5A 2022-02-14 2022-02-14 一种基于xr技术的人机交互方法及系统 Pending CN114518825A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210135999.5A CN114518825A (zh) 2022-02-14 2022-02-14 一种基于xr技术的人机交互方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210135999.5A CN114518825A (zh) 2022-02-14 2022-02-14 一种基于xr技术的人机交互方法及系统

Publications (1)

Publication Number Publication Date
CN114518825A true CN114518825A (zh) 2022-05-20

Family

ID=81596581

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210135999.5A Pending CN114518825A (zh) 2022-02-14 2022-02-14 一种基于xr技术的人机交互方法及系统

Country Status (1)

Country Link
CN (1) CN114518825A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116781958A (zh) * 2023-08-18 2023-09-19 成都索贝数码科技股份有限公司 一种基于xr的多机位演播系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130093933A1 (en) * 2000-01-11 2013-04-18 Hitachi, Ltd. Electric camera
CN106791782A (zh) * 2016-12-19 2017-05-31 北京星辰美豆文化传播有限公司 基于单摄像头的立体图像的拍摄方法、装置和电子设备
CN107707899A (zh) * 2017-10-19 2018-02-16 中科创达软件股份有限公司 包含运动目标的多视角图像处理方法、装置及电子设备
CN112533002A (zh) * 2020-11-17 2021-03-19 南京邮电大学 一种用于vr全景直播的动态图像融合方法及系统
CN113221381A (zh) * 2021-06-01 2021-08-06 北京理工大学 一种虚拟现实多视角融合模型的设计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130093933A1 (en) * 2000-01-11 2013-04-18 Hitachi, Ltd. Electric camera
CN106791782A (zh) * 2016-12-19 2017-05-31 北京星辰美豆文化传播有限公司 基于单摄像头的立体图像的拍摄方法、装置和电子设备
CN107707899A (zh) * 2017-10-19 2018-02-16 中科创达软件股份有限公司 包含运动目标的多视角图像处理方法、装置及电子设备
CN112533002A (zh) * 2020-11-17 2021-03-19 南京邮电大学 一种用于vr全景直播的动态图像融合方法及系统
CN113221381A (zh) * 2021-06-01 2021-08-06 北京理工大学 一种虚拟现实多视角融合模型的设计方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116781958A (zh) * 2023-08-18 2023-09-19 成都索贝数码科技股份有限公司 一种基于xr的多机位演播系统及方法
CN116781958B (zh) * 2023-08-18 2023-11-07 成都索贝数码科技股份有限公司 一种基于xr的多机位演播系统及方法

Similar Documents

Publication Publication Date Title
EP3332565B1 (en) Mixed reality social interaction
CN106157359B (zh) 一种虚拟场景体验系统的设计方法
US10192363B2 (en) Math operations in mixed or virtual reality
JP4555722B2 (ja) 立体映像生成装置
CN108282648B (zh) 一种vr渲染方法、装置、穿戴式设备及可读存储介质
CN111803945B (zh) 界面渲染方法、装置、电子设备及存储介质
JP2009252240A (ja) リフレクション組み込みシステム、方法及びプログラム
EP3196840B1 (en) Displaying visual information of views captured at geographic locations
US10540918B2 (en) Multi-window smart content rendering and optimizing method and projection method based on cave system
CN105513112A (zh) 图像处理方法和装置
Tatzgern et al. Exploring real world points of interest: Design and evaluation of object-centric exploration techniques for augmented reality
CN111026261A (zh) 一种旅游景点ar互动展示的方法
CN109640070A (zh) 一种立体显示方法、装置、设备及存储介质
CN114401414B (zh) 沉浸式直播的信息显示方法及系统、信息推送方法
CN103959340A (zh) 用于自动立体三维显示器的图形呈现技术
CN105894584A (zh) 一种三维沉浸式环境下与现实环境交互的方法和装置
CN111833458A (zh) 图像显示方法及装置、设备、计算机可读存储介质
Suenaga et al. A practical implementation of free viewpoint video system for soccer games
Ryskeldiev et al. Streamspace: Pervasive mixed reality telepresence for remote collaboration on mobile devices
CN113206993A (zh) 一种调整显示屏幕的方法及显示设备
CN107835403B (zh) 一种以3d视差效果显示的方法及装置
CN109920043A (zh) 虚拟3d对象的立体渲染
CN109068122A (zh) 图像显示方法、装置、设备及存储介质
CN114518825A (zh) 一种基于xr技术的人机交互方法及系统
CN108093245B (zh) 一种多屏融合方法、系统、装置和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination