CN106127552B - 一种虚拟场景显示方法、装置及系统 - Google Patents
一种虚拟场景显示方法、装置及系统 Download PDFInfo
- Publication number
- CN106127552B CN106127552B CN201610464709.6A CN201610464709A CN106127552B CN 106127552 B CN106127552 B CN 106127552B CN 201610464709 A CN201610464709 A CN 201610464709A CN 106127552 B CN106127552 B CN 106127552B
- Authority
- CN
- China
- Prior art keywords
- virtual
- coordinate system
- sight line
- scene
- visual area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例提供了一种虚拟场景显示方法、装置及系统,包括:获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标;基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;基于所述视线坐标系以及预设视线焦距,确定人在所述视线坐标系中的第一可视区域;根据所述映射关系和所述第一可视区域,确定所述预设虚拟场景中的第二可视区域;展示所述第二可视区域。通过本方案,可以使消费者体验立体的、真实的虚拟购物环境。
Description
技术领域
本发明涉及人机交互技术领域,特别是涉及一种虚拟场景显示方法、装置及系统。
背景技术
如今,随着时代的发展,人类生活节奏飞速加快,时间成为紧缺资源之一。在这样的情况下,便捷快速的网上购物已经被越来越多的人所接受。
在现有的传统网上购物方式中,展览产品的方式主要是接受消费者输入的产品关键字信息,进而从服务器调取相关产品图片最后通过终端向消费者显示。然而,此种网上购物形式使得消费者只能被动地接受供应商所提供的图片,且方式单一、枯燥,不能使消费者拥有真实的购物体验。
发明内容
本发明实施例的目的在于提供一种虚拟场景显示方法、装置及系统,以使消费者体验立体的、真实的虚拟购物环境。具体技术方案如下:
第一方面,本发明实施例提供了一种虚拟场景显示方法,包括:
获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标;
基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;
基于所述视线坐标系以及预设视线焦距,确定人在所述视线坐标系中的第一可视区域;
根据所述映射关系和所述第一可视区域,确定所述预设虚拟场景中的第二可视区域;
展示所述第二可视区域。
优选的,所述方法还包括:
获得人体头部的旋转角度;
所述基于所述位置坐标,确定视线坐标系,包括:
根据所述旋转角度和所述位置坐标,确定所述视线坐标系。
优选的,所述根据所述旋转角度和所述位置坐标,确定所述视线坐标系,包括:
基于所述位置坐标以及所述旋转角度,确定参数矩阵;
将所述参数矩阵与所述虚拟坐标系的原点作乘法运算,获得视线坐标系的原点;
根据所述视线坐标系的原点,确定所述视线坐标系。
优选的,所述方法还包括:
检测人体头部的位置是否发生了变化;
若为是,执行所述获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标的步骤。
优选的,通过以下方式建立所述虚拟坐标系:
基于真实场景建立真实场景坐标系,获取真实场景中真实对象的坐标;
基于所述真实对象的坐标,建立真实场景的几何模型;
基于所述几何模型以及预设的模型贴图,建立场景的贴图模型;
从预设灯光效果库中选取灯光效果,根据所述灯光效果对所述贴图模型进行渲染,进而获得真实场景对应的所述虚拟场景;
建立所述虚拟场景对应的所述虚拟坐标系。
优选的,所述方法还包括:
获取人体手臂在所述虚拟坐标系中的第一坐标以及所述第二可视区域内虚拟对象的第二坐标;
根据所述映射关系、所述第一坐标和所述第二坐标,获得人体手臂在所述视线坐标系中的第三坐标和所述虚拟对象在所述视线坐标系中的第四坐标;
获得与所述第三坐标匹配的第四坐标对应的虚拟对象;
展示所获得的虚拟对象的信息列表。
优选的,所述方法还包括:
当显示所获得的虚拟对象的信息列表后,获得人体手臂在所述虚拟坐标系中的运动轨迹;
当所述运动轨迹与预设的对象购买轨迹相匹配时,将所获得的虚拟对象存入预先建立的购买列表;
当所述运动轨迹与预设的列表关闭轨迹相匹配时,关闭虚拟对象信息列表。
优选的,所述方法还包括:
获取人体骨骼点在所述虚拟坐标系中的骨骼点坐标;
基于所述骨骼点坐标合成虚拟人物对象;
所述展示所述第二可视区域,包括:
根据所述位置坐标,对所述虚拟人物对象和所述第二可视区域进行合成处理;
展示合成处理后的所述第二可视区域。
第二方面,本发明实施例还提供了一种虚拟场景显示装置,包括:
第一获得模块,用于获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标;
第二获得模块,用于基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;
第一确定模块,用于基于所述视线坐标系以及预先设定的视线焦距,确定人在所述视线坐标系中的第一可视区域;
第二确定模块,用于根据所述映射关系和所述第一可视区域,确定所述预设虚拟场景中的第二可视区域;
区域展示模块,用于展示所述第二可视区域。
优选的,所述装置还包括第三获得模块,用于获得人体头部的旋转角度;
所述第二获得模块,还可以用于:
根据所述旋转角度和所述位置坐标,确定所述视线坐标系。
优选的,所述第二获得模块包括:
第一确定子模块,用于基于所述位置坐标以及所述旋转角度,确定参数矩阵;
原点获得子模块,用于将所述参数矩阵与所述虚拟坐标系的原点作乘法运算,获得视线坐标系的原点;
第二确定子模块,用于根据所述视线坐标系的原点,确定所述视线坐标系。
优选的,所述装置还包括变化判断模块,用于当人体头部的位置是否发生变化,触发第一获得模块。
优选的,所述虚拟坐标系通过虚拟坐标系建立模块实现,所述虚拟坐标系建立模块,包括:
对象获取单元,用于基于真实场景建立真实场景坐标系,获取真实场景中真实对象的坐标;
第一建立单元,用于基于所述真实对象的坐标,建立真实场景的几何模型;
第二建立单元,用于基于所述几何模型以及预设的模型贴图,建立场景的贴图模型;
第三建立单元,用于从预设灯光效果库中选取灯光效果,根据所述灯光效果对所述贴图模型进行渲染,进而获得真实场景对应的所述虚拟场景;
第四建立单元,用于建立所述虚拟场景对应的所述虚拟坐标系。
优选的,所述装置还可以包括:
虚拟坐标获取模块,用于获取人体手臂在所述虚拟坐标系中的第一坐标以及所述第二可视区域内虚拟对象的第二坐标;
视线坐标获取模块,用于根据所述映射关系、所述第一坐标和所述第二坐标,获得人体手臂在所述视线坐标系中的第三坐标和所述虚拟对象在所述视线坐标系中的第四坐标;
虚拟对象获得模块,用于获得与所述第三坐标匹配的第四坐标对应的虚拟对象;
信息列表展示模块,用于展示所获得的虚拟对象的信息列表。
优选的,所述装置还可以包括:
轨迹获得模块,用于当显示所获得的虚拟对象的信息列表后,获得人体手臂在所述虚拟坐标系中的运动轨迹;
对象购买模块,用于当所述运动轨迹与预设的对象购买轨迹相匹配时,将所获得的虚拟对象存入预先建立的购买列表;
列表关闭模块,用于当所述运动轨迹与预设的列表关闭轨迹相匹配时,关闭虚拟对象信息列表。
优选的,所述装置还可以包括:
骨骼点获取模块,用于获取人体骨骼点在所述虚拟坐标系中的骨骼点坐标;
合成模块,用于基于所述骨骼点坐标合成虚拟人物对象;
所述区域展示模块,还可以包括:
合成处理子模块,用于根据所述位置坐标,对所述虚拟人物对象和所述第二可视区域进行合成处理;
展示子模块,用于展示合成处理后的所述第二可视区域。
第三方面,本发明实施例还提供了一种虚拟场景显示系统,所述系统包括:服务器、移动终端、凸凹镜以及体感摄像头,其中,
所述服务器分别与所述体感摄像头、所述移动终端通信连接,所述体感摄像头与所述移动终端通信连接,所述凸凹镜位于所述移动终端显示屏前方;
所述服务器,用于存储预设的并传输所述虚拟场景的数据以及,并根据所述虚拟场景确定所述虚拟场景所对应的虚拟坐标系;
所述体感摄像头,用于采集图像,并将所采集的图像发送至所述服务器;
所述服务器,还用于接收所述体感摄像头发送的图像,在检测到所述图像中包含人体头部时,获得人体头部在所述虚拟坐标系中的位置坐标,并将所述位置坐标发送至所述移动终端;
所述移动终端,用于基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;基于所述视线坐标系以及预设视线焦距,确定人在所述视线坐标系中的第一可视区域;根据所述映射关系和所述第一可视区域,确定所述预设虚拟场景中的第二可视区域,并向所述服务器发送所述第二可视区域的信息,其中,所述预设视线焦距为:根据所述凸凹镜确定的;
所述服务器,还用于接收所述移动终端发送的所述第二可视区域的信息,并根据所述第二可视区域的信息确定所述虚拟场景的待展示图像,将所述待展示图像发送至所述移动终端;
所述移动终端,还用于接收所述待展示图像,并展示所述待展示图像;
所述凸凹镜,用于放大显示所述待展示图像。
可选的,所述移动终端,还用于获得人体头部的旋转角度;根据所述旋转角度和所述体感摄像头所获取的所述位置坐标,确定所述视线坐标系。
可选的,所述移动终端,具体用于基于所述位置坐标以及所述旋转角度,确定参数矩阵,并将所述参数矩阵发送至所述服务器;
所述服务器,具体用于将所述参数矩阵与所述虚拟坐标系的原点作乘法运算,获得视线坐标系的原点,并将所述视线坐标系的原点发送至所述移动终端;
所述移动终端,具体用于根据所述视线坐标系的原点,确定所述视线坐标系。
可选的,所述移动终端,还用于检测所述位置坐标是否发生了变化;若为是,重新接收所述体感摄像头所发送的所述位置坐标并将所述位置坐标发送至所述服务器,所述服务器继续执行处理步骤。
可选的,服务器,还具体用于:
所述体感摄像头采集真实场景图像,并将所述图像发送至所述服务器;
所述服务器建立真实场景坐标系,获取真实场景中真实对象的坐标;基于所述真实对象的坐标,建立真实场景的几何模型;基于所述几何模型以及预设的模型贴图,建立场景的贴图模型;从预设灯光效果库中选取灯光效果,根据所述灯光效果对所述贴图模型进行渲染,进而获得真实场景对应的所述虚拟场景;建立所述虚拟场景对应的所述虚拟坐标系。
可选的,所述体感摄像头,还用于获取人体手臂的手臂图像信息,并肩所述手臂图像信息通过所述移动终端发送至所述服务器;
所述服务器,还用于根据所述手臂图像信息获得人体手臂在所述虚拟坐标系中的第一坐标,并将所述第一坐标发送至所述移动终端;
所述移动终端,还用于根据所述映射关系、所述第一坐标和所述第二可视区域内虚拟对象的第二坐标,获得人体手臂在所述视线坐标系中的第三坐标和所述虚拟对象在所述视线坐标系中的第四坐标;当所述第三坐标和所述第四坐标相匹配时;基于所述第四坐标以及所述映射关系获得所述第四坐标在虚拟坐标系中的虚拟第四坐标;发送所述虚拟第四坐标至所述服务器;
所述服务器,还用于基于所述获得所述虚拟第四坐标,获得与所述虚拟第四坐标所对应的的虚拟对象,并查找所获得的虚拟对象的信息列表;将所述所获得的虚拟对象的信息列表发送至移动终端;
所述移动终端,还用于合成所述所获得的虚拟对象的信息列表以及所述第二可视区域,并显示合成后的信息。
可选的,当所述移动终端显示所获得的虚拟对象的信息列表后,重复获得所述服务器所发送的所述第一坐标,进而获得人体手臂在所述虚拟坐标系中的运动轨迹,并发送所述运动轨迹至所述服务器;
所述服务器接收所述运动轨迹并判断,当所述运动轨迹与预设的对象购买轨迹相匹配时,将所获得的虚拟对象存入预先建立的购买列表;当所述运动轨迹与预设的列表关闭轨迹相匹配时,发送关闭命令至所述移动终端;
所述移动终端接收所述关闭命令,关闭虚拟对象信息列表。
可选的,所述服务器接收所述体感摄像头通过所述移动终端所发送的人体骨骼点图像,进而获取人体骨骼点在所述虚拟坐标系中的骨骼点坐标;基于所述骨骼点坐标合成虚拟人物对象;将所述虚拟人物对象发送至所述移动终端。
可选的,所述展示所述第二可视区域,包括:
所述移动终端根据所述位置坐标以及所述服务器所发送的所述虚拟人物对象,对所述虚拟人物对象和所述第二可视区域进行合成处理;展示合成处理后的所述第二可视区域。
本发明实施例提供的一种虚拟场景显示方法、装置及系统,通过基于人体头部位置建立视线坐标系,将视线坐标系与和真实场景所对应的虚拟坐标系合成并显示,从而展现真实的虚拟场景,进而在电子设备中立体地、真实地显示购物环境。当然,实施本发明的任一产品或方法必不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例所提供的一种虚拟场景显示方法的流程框图;
图2为本发明实施例所提供的一种虚拟场景显示方法的又一流程框图;
图3为本发明实施例所提供的一种虚拟场景显示方法的另一流程框图;
图4为本发明实施例所提供的一种信息列表示意图;
图5为本发明实施例所提供的一种虚拟场景显示方法的再一流程框图;
图6为本发明实施例所提供的一种虚拟场景显示方法的虚拟人物对象与第二可视区域合成效果图;
图7为本发明实施例所提供的一种虚拟场景显示装置的示意框图;
图8为本发明实施例所提供的一种虚拟场景显示系统的示意框图;
图9为本发明实施例所提供的一种虚拟场景显示系统的模型示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种虚拟场景显示方法、装置及系统,以解决网上购物方式单一、枯燥,不能使消费者拥有真实的购物体验的问题。
下面首先对本发明实施例所提供的一种虚拟场景显示方法进行介绍。
需要强调的是,本发明实施例的硬件执行主体可以为移动终端,同时,本发明实施例的硬件执行主体还可以为服务器,所述执行主体与体感摄像头相互通信链接,配合完成所有执行步骤。
进一步需要强调的是,所述移动终端可以为手机、平板电脑等;同时所述移动终端还可以是外接计算机的可移动显示设备等,这都是合理的。
另外,需要说明的是,主要实现本发明实施例所提供的一种虚拟场景显示方法的功能软件可以为专门的客户端软件,举例而言,专门的客户端软件可以为专门的购物软件等;实现本发明实施例所提供的一种虚拟场景显示方法的功能软件也可以为现有的客户端软件的功能插件,举例而言,现有的客户端软件的功能插件可以为浏览器的插件等,这都是合理的。
如图1所示,本发明实施例所提供的一种虚拟场景显示方法,包括如下步骤:
S101:获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标;
具体的,通过以下方式建立所述虚拟坐标系:基于真实场景建立真实场景坐标系,获取真实场景中真实对象的坐标;基于所述真实对象的坐标,建立真实场景的几何模型;基于所述几何模型以及预设的模型贴图,建立场景的贴图模型;从预设灯光效果库中选取灯光效果,根据所述灯光效果对所述贴图模型进行渲染,进而获得真实场景对应的所述虚拟场景;建立所述虚拟场景对应的所述虚拟坐标系。
由于真实场景中一般包括真实对象,则真实场景对应的虚拟场景中会相应的包含虚拟对象,这些虚拟对象与上述真实对象存在一一对应关系,另外,可以理解的,对于真实场景而言,真实对象的位置是确定的,则建立上述虚拟坐标系后,上述虚拟场景中虚拟对象的坐标则是确定的。
上述真实场景中真实对象的具体内容可依据场景的不同而不同,例如,超市购物场景中,上述真实对象可以为:洗衣液、食品等商品,则上述虚拟场景中的虚拟对象为:虚拟的洗衣液、食品等,也可以理解为:洗衣液、食品等的模型信息。
在本申请的一种实现方式中,可以通过摄像头采集图像信息,然后对所采集的图像信息进行分析,当检测到所采集图像中存在人时,确定人体头部在所采集图像中的位置,然后根据所确定的位置在虚拟坐标系中找到人体头部的位置。
具体的,上述摄像头可以为体感摄像头,上述所采集的图像可以为包含深度信息的图像。
进一步需要说明的是,所述真实场景可以为任何场景,例如,超市卖场、百货商场、各种形式的商店等;又如篮球场、操场、城市街区、乡间田野等,这都是合理的。相应的,所述虚拟坐标系也可以为如超市卖场、百货商场、各种形式的商店、书店等所对应的虚拟坐标系,又如篮球场、操场、城市街区、乡间田野、图书馆等真实场景所对应的虚拟坐标系。
S102:基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;
具体的,可以将所述位置坐标与虚拟坐标系原点之间做运算,获得视线坐标系原点,进而确定视线坐标系。其中,所述位置坐标包含x、y、z三个参数。
进一步的,由于上述视线坐标系是根据上述位置坐标确定的,而上述位置坐标又是根据虚拟坐标系确定的,所以可以基于上述位置坐标获得视线坐标系与虚拟坐标系之间的映射关系。
S103:基于所述视线坐标系以及预设视线焦距,确定人在所述视线坐标系中的第一可视区域;
其中,所述视线焦距由硬件设备所确定。
进一步的,所述视线焦距影响可视范围,当视线焦距大时,可视范围大,当视线焦距小时,可视范围小。上述可视范围对应于视线坐标系中的一片区域。
S104:根据所述映射关系和所述第一可视区域,确定所述预设虚拟场景中的第二可视区域;
S105:展示所述第二可视区域。
本发明实施例提供的一种虚拟场景显示方法,通过基于人体头部位置建立视线坐标系,将视线坐标系与和真实场景所对应的虚拟坐标系合成并显示,可以展现真实的虚拟场景,进而在电子设备中立体地、真实地显示购物环境。
更进一步的,为了实现虚拟场景的全方位展示,在图1的基础上,如图2所示,本发明实施例所提供的一种虚拟场景显示方法还可以包括:
S106:获得人体头部的旋转角度;
需要说明的是,所述人体头部的旋转角度可以由移动终端内部的陀螺仪获取,当然,也可以通过其他图像采集设备获得。
基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系(S102),包括
S102A:根据所述旋转角度和所述位置坐标,确定所述视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系。
具体的,基于所述位置坐标以及所述旋转角度,确定参数矩阵;将所述参数矩阵与所述虚拟坐标系的原点作乘法运算,获得视线坐标系的原点;根据所述视线坐标系的原点,确定所述视线坐标系。
需要强调的是,所述参数矩阵为包含参数x、y、z、θ的矩阵,其中x为所述位置坐标的横坐标、y为所述位置坐标的纵坐标、z为所述位置坐标的深度坐标、θ为所述人体头部的旋转角度。例如,当人体头部绕z轴旋转了θ,通过预设坐标算法,确定所述视线坐标系原点。其中预设坐标算法为现有技术,在此不做限定。
本发明实施例中,通过获取人体头部旋转角度,基于人体头部旋转角度以及人体位置坐标确定第二可视区域,进而实现虚拟场景的全方位展示。
更进一步的,为了在人物移动情况下展示虚拟场景,在图2的基础上,如图3所示,本发明实施例所提供的一种虚拟场景显示方法还可以包括:
S107:检测人体头部的位置是否发生了变化;若为是,执行S101,若为否,不作处理;
本发明实施例中,当人体头部位置坐标发生改变,重新基于位置坐标确定第二可视区域,实现了在人物移动情况下展示虚拟场景的功能。
更进一步的,为了实现对虚拟对象的详细信息的展示,本发明实施例所提供的一种虚拟场景显示方法还可以包括:
A:获取人体手臂在所述虚拟坐标系中的第一坐标以及所述第二可视区域内虚拟对象的第二坐标;
与前述确定人体头部在虚拟坐标系中的位置坐标的情况类似,也可以通过对摄像头采集的图像进行分析,确定所采集图像中人体手臂的位置,然后将所确定的位置映射到虚拟坐标系中,进而获得上述第一坐标。
B:根据所述映射关系、所述第一坐标和所述第二坐标,获得人体手臂在所述视线坐标系中的第三坐标和所述虚拟对象在所述视线坐标系中的第四坐标;
C:获得与所述第三坐标匹配的第四坐标对应的虚拟对象;
需要说明的是,所属匹配的标准可以为相等,同时也可以为两坐标的距离小于预设数值。
D:展示所获得的虚拟对象的信息列表。
需要说明的是,所述信息列表包括虚拟对象的详细信息。例如,当虚拟对象为商品时,如图4所示,所述信息列表包括价格、产地、成分。又如,当虚拟对象为书籍,所述信息列表包括书名、作者、出版日期、出版社、印刷版次等,本申请只是以此为例进行说明,并不对信息列表所展示的具体信息进行限定。
本发明实施例中,通过判断手臂是否与第二可视区域内的虚拟对象匹配,进而确定需要展示信息的虚拟对象,实现了对虚拟对象的详细信息的展示。
再进一步的,为了实现购买虚拟对象的功能,本发明实施例所提供的一种虚拟场景显示方法还可以包括:
E:当显示所获得的虚拟对象的信息列表后,获得人体手臂在所述虚拟坐标系中的运动轨迹;
可以理解的,摄像头可以实时进行图像采集,具体应用中,可以通过对摄像头所采集的各帧图像进行分析,确定各帧图像中人体手臂在虚拟坐标系中的位置,然后根据所确定的位置以及各帧图像的采集时刻,获得人体手臂的运动轨迹。
F:当所述运动轨迹与预设的对象购买轨迹相匹配时,将所获得的虚拟对象存入预先建立的购买列表;
需要说明的是,为了保护购买虚拟对象的消费者的隐私及安全,在将所获得的虚拟对象存入预先建立的购买列表之前,需要消费者验证身份信息。例如,让消费者通过输入密码、扫描指纹、认证人脸等方式登陆预先注册的账户。
具体的,上述预设的对象购买轨迹可以是:表示右手臂平举的轨迹,当然,本申请仅仅以此为例进行说明,实际应用中上述预设的对象购买轨迹的具体形式并不仅限于此。
G:当所述运动轨迹与预设的列表关闭轨迹相匹配时,关闭虚拟对象信息列表。
需要强调的是,所述预设的对象购买轨迹、所述列表关闭轨迹可以为手臂的任一轨迹,同时所述轨迹可以为手臂上某一个骨骼点的运动轨迹,也可以为手臂上多个骨骼点的运动轨迹,还可以为多个骨骼点的连线轨迹,这都是合理的。
具体的,上述预设的列表关闭轨迹可以是:表示左手臂画圈的轨迹,当然,本申请仅仅以此为例进行说明,实际应用中上述预设的列表关闭轨迹的具体形式并不仅限于此。
值得一提的是,上述预设的对象购买轨迹和列表关闭轨迹需设置为不同的轨迹,以保证准确识别用户的意图。
为了更加清楚详细说明本功能的实现,假设所述对象购买轨迹为右手/左手手臂上的骨骼点连城一条直线,预设列表关闭轨迹为左手/右手手臂骨骼点连城一条直线。那么,当人的右手/左手手臂平举(即,右手/左手手臂上的骨骼点连城一条直线),将所获得的虚拟对象加入至预设购买列表;当人的手臂左手/右手手臂平举(即,左手/右手手臂骨骼点连城一条直线),将所显示的信息列表关闭。
本发明实施例中,通过检测人体手臂的运动轨迹与预设轨迹是否匹配,进而决定是否选中所述虚拟对象为购买对象,实现了购买虚拟对象的功能。
再进一步的,为了实现将人体显示在虚拟场景的功能,在图1的基础上,如图5所示,本发明实施例所提供的一种虚拟场景显示方法还可以包括:
S108:获取人体骨骼点在所述虚拟坐标系中的骨骼点坐标;
由于每个人的身高、胖瘦程度不同,所以可以预先设定好人体骨骼点的相对位置,然后,分析摄像头所采集的图像,获得图像中人体的位置,再结合上述相对位置,获得人体骨骼点。
具体的,例如,所述骨骼点的相对位置可以为:头部的中心位置、四肢的中心位置等。
S109:基于所述骨骼点坐标合成虚拟人物对象;
展示所述第二可视区域(S105),包括:
S105A:展示所述第二可视区域。
具体的,根据所述位置坐标,对所述虚拟人物对象和所述第二可视区域进行合成处理;展示合成处理后的所述第二可视区域。
需要说明的是,根据预设周期执行S109。也就是说,每过一个周期,上述步骤相应执行一次。进而,S105A中所述合成处理后的所述第二可视区域能够显示与人体动作一致的虚拟人物的动作,如图6所示。例如,当人体向前方走动,所述第二可视区域的虚拟人物对象向前方移动;当人体转身向左走动,所述第二可视区域的虚拟人物对象向人体所视的前方,即现实空间中的左方走动。同理,当人体转身向右走动,所述第二可视区域的虚拟人物对象向人物正前方,即现实空间中的右方走动。
进一步需要说明的是,虚拟人物对象在虚拟空间的初始位置是一定的。具体来说,在启动体感摄像头后,无论人体相对于体感摄像头站在哪个位置,在虚拟空间中都是一个固定的起始位置。
本发明实施例中,通过获取人体骨骼信息建立虚拟人物对象,并将其与第二可视区域合成,实现了将人体显示在虚拟场景的功能。
相应于上述方法实施例,如图7所示,本发明实施例还提供了一种虚拟场景显示装置,该装置可以包括:
第一获得模块610,用于获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标;
第二获得模块620,用于基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;
第一确定模块630,用于基于所述视线坐标系以及预先设定的视线焦距,确定人在所述视线坐标系中的第一可视区域;
第二确定模块640,用于根据所述映射关系和所述第一可视区域,确定所述预设虚拟场景中的第二可视区域;
区域展示模块650,用于展示所述第二可视区域。
本发明实施例提供的一种虚拟场景显示装置,通过基于人体头部位置建立视线坐标系,将视线坐标系与和真实场景所对应的虚拟坐标系合成并显示,可以展现真实的虚拟场景,进而在电子设备中立体地、真实地显示购物环境。
更进一步的,为了实现虚拟场景的全方位展示,本发明实施例所提供的一种虚拟场景显示装置还可以包括:
第三获得模块,用于获得人体头部的旋转角度;
所述第二获得模块,还可以用于:
根据所述旋转角度和所述位置坐标,确定所述视线坐标系。
具体的,所述第二获得模块包括:
第一确定子模块,用于基于所述位置坐标以及所述旋转角度,确定参数矩阵;
原点获得子模块,用于将所述参数矩阵与所述虚拟坐标系的原点作乘法运算,获得视线坐标系的原点;
第二确定子模块,用于根据所述视线坐标系的原点,确定所述视线坐标系。
本发明实施例中,通过获取人体头部旋转角度,基于人体头部旋转角度以及人体位置坐标确定第二可视区域,进而实现虚拟场景的全方位展示。
更进一步的,为了在人物移动情况下展示虚拟场景,本发明实施例所提供的一种虚拟场景显示装置还可以包括:
变化判断模块,用于判断人体头部的位置是否发生变化,当发生变化时,触发第一获得模块。
具体的,所述虚拟坐标系通过虚拟坐标系建立模块实现,所述虚拟坐标系建立模块,包括:
对象获取单元,用于基于真实场景建立真实场景坐标系,获取真实场景中真实对象的坐标;
第一建立单元,用于基于所述真实对象的坐标,建立真实场景的几何模型;
第二建立单元,用于基于所述几何模型以及预设的模型贴图,建立场景的贴图模型;
第三建立单元,用于从预设灯光效果库中选取灯光效果,根据所述灯光效果对所述贴图模型进行渲染,进而获得真实场景对应的所述虚拟场景;
第四建立单元,用于建立所述虚拟场景对应的所述虚拟坐标系。
本发明实施例中,当人体头部位置坐标发生改变,重新基于位置坐标确定第二可视区域,实现了在人物移动情况下展示虚拟场景的功能。
更进一步的,为了实现对虚拟对象的详细信息的展示,本发明实施例所提供的一种虚拟场景显示装置还可以包括:
虚拟坐标获取模块,用于获取人体手臂在所述虚拟坐标系中的第一坐标以及所述第二可视区域内虚拟对象的第二坐标;
视线坐标获取模块,用于根据所述映射关系、所述第一坐标和所述第二坐标,获得人体手臂在所述视线坐标系中的第三坐标和所述虚拟对象在所述视线坐标系中的第四坐标;
虚拟对象获得模块,用于获得与所述第三坐标匹配的第四坐标对应的虚拟对象;
信息列表展示模块,用于展示所获得的虚拟对象的信息列表。
本发明实施例中,通过判断手臂是否与第二可视区域内的虚拟对象匹配,进而确定需要展示信息的虚拟对象,实现了对虚拟对象的详细信息的展示。
再进一步的,为了实现购买虚拟对象的功能本发明实施例所提供的一种虚拟场景显示装置还可以包括:
轨迹获得模块,用于当显示所获得的虚拟对象的信息列表后,获得人体手臂在所述虚拟坐标系中的运动轨迹;
对象购买模块,用于当所述运动轨迹与预设的对象购买轨迹相匹配时,将所获得的虚拟对象存入预先建立的购买列表;
列表关闭模块,用于当所述运动轨迹与预设的列表关闭轨迹相匹配时,关闭虚拟对象信息列表。
本发明实施例中,通过检测人体手臂的运动轨迹与预设轨迹是否匹配,进而决定是否选中所述虚拟对象为购买对象,实现了购买虚拟对象的功能。
再进一步的,为了实现将人体显示在虚拟场景的功能,本发明实施例所提供的一种虚拟场景显示装置还可以包括:
骨骼点获取模块,用于获取人体骨骼点在所述虚拟坐标系中的骨骼点坐标;
合成模块,用于基于所述骨骼点坐标合成虚拟人物对象;
所述区域展示模块,还可以包括:
合成处理子模块,用于根据所述位置坐标,对所述虚拟人物对象和所述第二可视区域进行合成处理;
展示子模块,用于展示合成处理后的所述第二可视区域。
本发明实施例中,通过获取人体骨骼信息建立虚拟人物对象,并将其与第二可视区域合成,实现了将人体显示在虚拟场景的功能。
相应于上述方法实施例,如图8所示,本发明实施例还提供了一种虚拟场景显示系统,该系统可以包括:服务器、移动终端、凸凹镜以及体感摄像头。
具体的,所述服务器分别与所述体感摄像头、所述移动终端通信连接,所述体感摄像头与所述移动终端通信连接,所述凸凹镜位于所述移动终端显示屏前方;
所述服务器,用于存储预设的并传输所述虚拟场景的数据以及,并根据所述虚拟场景确定所述虚拟场景所对应的虚拟坐标系;
所述体感摄像头,用于采集图像,并将所采集的图像发送至所述服务器;
所述服务器,还用于接收所述体感摄像头发送的图像,在检测到所述图像中包含人体头部时,获得人体头部在所述虚拟坐标系中的位置坐标,并将所述位置坐标发送至所述移动终端;
所述移动终端,用于基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;基于所述视线坐标系以及预设视线焦距,确定人在所述视线坐标系中的第一可视区域;根据所述映射关系和所述第一可视区域,确定所述预设虚拟场景中的第二可视区域,并向所述服务器发送所述第二可视区域的信息,其中,所述预设视线焦距为:根据所述凸凹镜确定的;
所述服务器,还用于接收所述移动终端发送的所述第二可视区域的信息,并根据所述第二可视区域的信息确定所述虚拟场景的待展示图像,将所述待展示图像发送至所述移动终端;
所述移动终端,还用于接收所述待展示图像,并展示所述待展示图像;
所述凸凹镜,用于放大显示所述待展示图像。
本发明实施例提供的一种虚拟场景系统,通过基于人体头部位置建立视线坐标系,将视线坐标系与和真实场景所对应的虚拟坐标系合成并显示,可以展现真实的虚拟场景,进而在电子设备中立体地、真实地显示购物环境。
可选的,所述移动终端,还用于获得人体头部的旋转角度;根据所述旋转角度和所述体感摄像头所获取的所述位置坐标,确定所述视线坐标系。
可选的,所述移动终端,具体用于基于所述位置坐标以及所述旋转角度,确定参数矩阵,并将所述参数矩阵发送至所述服务器;
所述服务器,具体用于将所述参数矩阵与所述虚拟坐标系的原点作乘法运算,获得视线坐标系的原点,并将所述视线坐标系的原点发送至所述移动终端;
所述移动终端,具体用于根据所述视线坐标系的原点,确定所述视线坐标系。
本发明实施例中,通过获取人体头部旋转角度,基于人体头部旋转角度以及人体位置坐标确定第二可视区域,进而实现虚拟场景的全方位展示。
可选的,所述移动终端,还用于检测所述位置坐标是否发生了变化;若为是,重新接收所述体感摄像头所发送的所述位置坐标并将所述位置坐标发送至所述服务器,所述服务器继续执行处理步骤。
可选的,服务器,还具体用于:
所述体感摄像头采集真实场景图像,并将所述图像发送至所述服务器;
所述服务器建立真实场景坐标系,获取真实场景中真实对象的坐标;基于所述真实对象的坐标,建立真实场景的几何模型;基于所述几何模型以及预设的模型贴图,建立场景的贴图模型;从预设灯光效果库中选取灯光效果,根据所述灯光效果对所述贴图模型进行渲染,进而获得真实场景对应的所述虚拟场景;建立所述虚拟场景对应的所述虚拟坐标系。
本发明实施例中,当人体头部位置坐标发生改变,重新基于位置坐标确定第二可视区域,实现了在人物移动情况下展示虚拟场景的功能。
可选的,所述体感摄像头,还用于获取人体手臂的手臂图像信息,并肩所述手臂图像信息通过所述移动终端发送至所述服务器;
所述服务器,还用于根据所述手臂图像信息获得人体手臂在所述虚拟坐标系中的第一坐标,并将所述第一坐标发送至所述移动终端;
所述移动终端,还用于根据所述映射关系、所述第一坐标和所述第二可视区域内虚拟对象的第二坐标,获得人体手臂在所述视线坐标系中的第三坐标和所述虚拟对象在所述视线坐标系中的第四坐标;当所述第三坐标和所述第四坐标相匹配时;基于所述第四坐标以及所述映射关系获得所述第四坐标在虚拟坐标系中的虚拟第四坐标;发送所述虚拟第四坐标至所述服务器;
所述服务器,还用于基于所述获得所述虚拟第四坐标,获得与所述虚拟第四坐标所对应的的虚拟对象,并查找所获得的虚拟对象的信息列表;将所述所获得的虚拟对象的信息列表发送至移动终端;
所述移动终端,还用于合成所述所获得的虚拟对象的信息列表以及所述第二可视区域,并显示合成后的信息。
本发明实施例中,通过判断手臂是否与第二可视区域内的虚拟对象匹配,进而确定需要展示信息的虚拟对象,实现了对虚拟对象的详细信息的展示。
可选的,当所述移动终端显示所获得的虚拟对象的信息列表后,重复获得所述服务器所发送的所述第一坐标,进而获得人体手臂在所述虚拟坐标系中的运动轨迹,并发送所述运动轨迹至所述服务器;
所述服务器接收所述运动轨迹并判断,当所述运动轨迹与预设的对象购买轨迹相匹配时,将所获得的虚拟对象存入预先建立的购买列表;当所述运动轨迹与预设的列表关闭轨迹相匹配时,发送关闭命令至所述移动终端;
所述移动终端接收所述关闭命令,关闭虚拟对象信息列表。
本发明实施例中,通过检测人体手臂的运动轨迹与预设轨迹是否匹配,进而决定是否选中所述虚拟对象为购买对象,实现了购买虚拟对象的功能。
可选的,所述服务器接收所述体感摄像头所发送的人体骨骼点图像,进而获取人体骨骼点在所述虚拟坐标系中的骨骼点坐标;基于所述骨骼点坐标合成虚拟人物对象;将所述虚拟人物对象发送至所述移动终端。
可选的,所述展示所述第二可视区域,包括:
所述移动终端根据所述位置坐标以及所述服务器所发送的所述虚拟人物对象,对所述虚拟人物对象和所述第二可视区域进行合成处理;展示合成处理后的所述第二可视区域。
具体的,需要说明的是,如图9所示,本系统还提供可以容纳移动终端的架子,用于容纳所述移动终端。
本发明实施例中,通过获取人体骨骼信息建立虚拟人物对象,并将其与第二可视区域合成,实现了将人体显示在虚拟场景的功能。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (8)
1.一种虚拟场景显示方法,其特征在于,包括:
获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标;
基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;
基于所述视线坐标系以及预设视线焦距,确定人在所述视线坐标系中的第一可视区域;
根据所述映射关系和所述第一可视区域,确定所述虚拟场景中的第二可视区域;
展示所述第二可视区域;
检测人体头部的位置是否发生了变化;
若为是,执行所述获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标的步骤;
获取人体骨骼点在所述虚拟坐标系中的骨骼点坐标,所述人体骨骼点是由至少包括头部的中心位置、四肢的中心位置以及所述虚拟场景中人体的位置确定的;
基于所述骨骼点坐标合成虚拟人物对象;
所述展示所述第二可视区域,包括:
根据所述位置坐标,对所述虚拟人物对象和所述第二可视区域进行合成处理;
展示合成处理后的所述第二可视区域;
所述获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标,包括:
对摄像头采集的图像信息进行分析,当检测到所采集的图像信息中存在人时,确定人体头部在所采集的图像信息中的位置,并根据所确定的位置在虚拟坐标系中找到人体头部的位置。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获得人体头部的旋转角度;
所述基于所述位置坐标,确定视线坐标系,包括:
根据所述旋转角度和所述位置坐标,确定所述视线坐标系。
3.根据权利要求2所述的方法,其特征在于,所述根据所述旋转角度和所述位置坐标,确定所述视线坐标系,包括:
基于所述位置坐标以及所述旋转角度,确定参数矩阵;
将所述参数矩阵与所述虚拟坐标系的原点作乘法运算,获得视线坐标系的原点;
根据所述视线坐标系的原点,确定所述视线坐标系。
4.根据权利要求1所述的方法,其特征在于,通过以下方式建立所述虚拟坐标系:
基于真实场景建立真实场景坐标系,获取真实场景中真实对象的坐标;
基于所述真实对象的坐标,建立真实场景的几何模型;
基于所述几何模型以及预设的模型贴图,建立场景的贴图模型;
从预设灯光效果库中选取灯光效果,根据所述灯光效果对所述贴图模型进行渲染,进而获得真实场景对应的所述虚拟场景;
建立所述虚拟场景对应的所述虚拟坐标系。
5.根据权利要求1-2任一项所述的方法,其特征在于,还包括:
获取人体手臂在所述虚拟坐标系中的第一坐标以及所述第二可视区域内虚拟对象的第二坐标;
根据所述映射关系、所述第一坐标和所述第二坐标,获得人体手臂在所述视线坐标系中的第三坐标和所述虚拟对象在所述视线坐标系中的第四坐标;
获得与所述第三坐标匹配的第四坐标对应的虚拟对象;
展示所获得的虚拟对象的信息列表。
6.根据权利要求5所述的方法,其特征在于,还包括:
当显示所获得的虚拟对象的信息列表后,获得人体手臂在所述虚拟坐标系中的运动轨迹;
当所述运动轨迹与预设的对象购买轨迹相匹配时,将所获得的虚拟对象存入预先建立的购买列表;
当所述运动轨迹与预设的列表关闭轨迹相匹配时,关闭虚拟对象信息列表。
7.一种虚拟场景显示装置,其特征在于,包括:
第一获得模块,用于获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标;
第二获得模块,用于基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;
第一确定模块,用于基于所述视线坐标系以及预先设定的视线焦距,确定人在所述视线坐标系中的第一可视区域;
第二确定模块,用于根据所述映射关系和所述第一可视区域,确定所述虚拟场景中的第二可视区域;
区域展示模块,用于展示所述第二可视区域;
变化判断模块,用于判断人体头部的位置是否发生变化,当发生变化时,触发第一获得模块;
骨骼点获取模块,用于获取人体骨骼点在所述虚拟坐标系中的骨骼点坐标,所述人体骨骼点是由至少包括头部的中心位置、四肢的中心位置以及所述虚拟场景中人体的位置确定的;
合成模块,用于基于所述骨骼点坐标合成虚拟人物对象;
所述区域展示模块,还可以包括:
合成处理子模块,用于根据所述位置坐标,对所述虚拟人物对象和所述第二可视区域进行合成处理;
展示子模块,用于展示合成处理后的所述第二可视区域;
所述第一获得模块具体用于:
对摄像头采集的图像信息进行分析,当检测到所采集的图像信息中存在人时,确定人体头部在所采集的图像信息中的位置,并根据所确定的位置在虚拟坐标系中找到人体头部的位置。
8.一种虚拟场景显示系统,其特征在于,包括:服务器、移动终端、凸凹镜以及体感摄像头,其中,
所述服务器分别与所述体感摄像头、所述移动终端通信连接,所述体感摄像头与所述移动终端通信连接,所述凸凹镜位于所述移动终端显示屏前方;
所述服务器,用于存储预设的并传输所述虚拟场景的数据以及,并根据所述虚拟场景确定所述虚拟场景所对应的虚拟坐标系;
所述体感摄像头,用于采集图像,并将所采集的图像发送至所述服务器;
所述服务器,还用于接收所述体感摄像头发送的图像,在检测到所述图像中包含人体头部时,获得人体头部在所述虚拟坐标系中的位置坐标,并将所述位置坐标发送至所述移动终端;
所述移动终端,用于基于所述位置坐标,确定视线坐标系,并获得所述视线坐标系与所述虚拟坐标系之间的映射关系;基于所述视线坐标系以及预设视线焦距,确定人在所述视线坐标系中的第一可视区域;根据所述映射关系和所述第一可视区域,确定所述虚拟场景中的第二可视区域,并向所述服务器发送所述第二可视区域的信息,所述服务器还用于接收所述体感摄像头所发送的人体骨骼点图像,获取人体骨骼点在所述虚拟坐标系中的骨骼点坐标,所述人体骨骼点是由至少包括头部的中心位置、四肢的中心位置以及所述虚拟场景中人体的位置确定的;基于所述骨骼点坐标合成虚拟人物对象;移动终端还用于根据所述位置坐标以及所述服务器所发送的所述虚拟人物对象,对所述虚拟人物对象和所述第二可视区域进行合成处理;展示合成处理后的所述第二可视区域;其中,所述预设视线焦距为:根据所述凸凹镜确定的;其中,所述获取人体头部在预设的虚拟场景所对应虚拟坐标系中的位置坐标,包括:对体感摄像头采集的图像信息进行分析,当检测到所采集的图像信息中存在人时,确定人体头部在所采集的图像信息中的位置,并根据所确定的位置在虚拟坐标系中找到人体头部的位置;
所述服务器,还用于接收所述移动终端发送的所述第二可视区域的信息,并根据所述第二可视区域的信息确定所述虚拟场景的待展示图像,将所述待展示图像发送至所述移动终端;
所述移动终端,还用于接收所述待展示图像,并展示所述待展示图像;
所述凸凹镜,用于放大显示所述待展示图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610464709.6A CN106127552B (zh) | 2016-06-23 | 2016-06-23 | 一种虚拟场景显示方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610464709.6A CN106127552B (zh) | 2016-06-23 | 2016-06-23 | 一种虚拟场景显示方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106127552A CN106127552A (zh) | 2016-11-16 |
CN106127552B true CN106127552B (zh) | 2019-12-13 |
Family
ID=57269389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610464709.6A Active CN106127552B (zh) | 2016-06-23 | 2016-06-23 | 一种虚拟场景显示方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106127552B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106774844B (zh) * | 2016-11-23 | 2020-04-17 | 上海临奇智能科技有限公司 | 一种用于虚拟定位的方法及设备 |
CN107320069A (zh) * | 2017-06-19 | 2017-11-07 | 泰康保险集团股份有限公司 | 智能看护方法、装置、系统及服务器 |
CN107562195A (zh) * | 2017-08-17 | 2018-01-09 | 英华达(南京)科技有限公司 | 人机交互方法及系统 |
CN108170282A (zh) * | 2018-01-19 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 用于控制三维场景的方法和装置 |
CN112106103B (zh) * | 2018-05-11 | 2024-09-06 | 莱斯特有限公司 | 用于确定坐标系之间的近似变换的系统和方法 |
CN110873863A (zh) * | 2018-08-29 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 一种目标展示方法、雷达系统及电子设备 |
CN110674422A (zh) * | 2019-09-17 | 2020-01-10 | 西安时代科技有限公司 | 一种根据真实场景信息实现虚拟场景显示的方法及系统 |
CN111738797A (zh) * | 2020-06-19 | 2020-10-02 | 深圳市酷开网络科技有限公司 | 虚拟现实的购物方法、系统、vr设备、服务器及存储介质 |
CN112040596B (zh) * | 2020-08-18 | 2022-11-08 | 张雪媛 | 虚拟空间灯光控制方法、计算机可读存储介质和系统 |
CN112037314A (zh) * | 2020-08-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 图像显示方法、装置、显示设备及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722249A (zh) * | 2012-06-05 | 2012-10-10 | 上海鼎为软件技术有限公司 | 操控方法、操控装置及电子装置 |
CN102830793A (zh) * | 2011-06-16 | 2012-12-19 | 北京三星通信技术研究有限公司 | 视线跟踪方法和设备 |
CN103543830A (zh) * | 2013-10-28 | 2014-01-29 | 四川大学 | 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 |
CN103544636A (zh) * | 2013-11-08 | 2014-01-29 | 梁涛 | 基于虚拟商场的互动方法及设备 |
CN104699247A (zh) * | 2015-03-18 | 2015-06-10 | 北京七鑫易维信息技术有限公司 | 一种基于机器视觉的虚拟现实交互系统及方法 |
-
2016
- 2016-06-23 CN CN201610464709.6A patent/CN106127552B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102830793A (zh) * | 2011-06-16 | 2012-12-19 | 北京三星通信技术研究有限公司 | 视线跟踪方法和设备 |
CN102722249A (zh) * | 2012-06-05 | 2012-10-10 | 上海鼎为软件技术有限公司 | 操控方法、操控装置及电子装置 |
CN103543830A (zh) * | 2013-10-28 | 2014-01-29 | 四川大学 | 一种人体骨骼点映射至立体显示中虚拟三维空间点的方法 |
CN103544636A (zh) * | 2013-11-08 | 2014-01-29 | 梁涛 | 基于虚拟商场的互动方法及设备 |
CN104699247A (zh) * | 2015-03-18 | 2015-06-10 | 北京七鑫易维信息技术有限公司 | 一种基于机器视觉的虚拟现实交互系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106127552A (zh) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106127552B (zh) | 一种虚拟场景显示方法、装置及系统 | |
CN110716645A (zh) | 一种增强现实数据呈现方法、装置、电子设备及存储介质 | |
CN105391970B (zh) | 提供由车辆的场景相机捕获的至少一个图像的方法和系统 | |
CN110363867B (zh) | 虚拟装扮系统、方法、设备及介质 | |
US20140007016A1 (en) | Product fitting device and method | |
CN105787751A (zh) | 三维人体虚拟试衣方法和系统 | |
Viyanon et al. | AR furniture: Integrating augmented reality technology to enhance interior design using marker and markerless tracking | |
EP2814000A1 (en) | Image processing apparatus, image processing method, and program | |
KR20150113309A (ko) | 디지털 의류를 이용하여 가상 체험 서비스 방법을 제공하는 스마트 단말 및 가상 체험 제공 서버 | |
JP2022505998A (ja) | 拡張現実データの提示方法、装置、電子機器及び記憶媒体 | |
Vitali et al. | Acquisition of customer’s tailor measurements for 3D clothing design using virtual reality devices | |
CN105446626A (zh) | 基于增强现实技术的商品信息获取方法、系统及移动终端 | |
JP6656572B1 (ja) | 情報処理装置、表示制御方法および表示制御プログラム | |
JP2020129356A (ja) | プログラム、情報処理方法、及び情報処理端末 | |
Chang et al. | A dynamic fitting room based on microsoft kinect and augmented reality technologies | |
US20170148225A1 (en) | Virtual dressing system and virtual dressing method | |
KR20210065423A (ko) | 증강현실 기반의 오프라인 매장에서의 가상 피팅시스템 | |
CN112905014A (zh) | Ar场景下的交互方法、装置、电子设备及存储介质 | |
CN116452745A (zh) | 手部建模、手部模型处理方法、设备和介质 | |
Bai et al. | Free-hand gesture interfaces for an augmented exhibition podium | |
Shams et al. | Towards 3D virtual dressing room based user-friendly metaverse strategy | |
CN116703507A (zh) | 图像处理方法、显示方法及计算设备 | |
JP7281012B1 (ja) | プログラム、情報処理方法及び情報処理システム | |
CN109426336A (zh) | 一种虚拟现实辅助选型设备 | |
CN108629824B (zh) | 图像生成方法、装置、电子设备及计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |