CN103116857B - 一种基于体感控制的虚拟样板房漫游系统 - Google Patents
一种基于体感控制的虚拟样板房漫游系统 Download PDFInfo
- Publication number
- CN103116857B CN103116857B CN201310044469.0A CN201310044469A CN103116857B CN 103116857 B CN103116857 B CN 103116857B CN 201310044469 A CN201310044469 A CN 201310044469A CN 103116857 B CN103116857 B CN 103116857B
- Authority
- CN
- China
- Prior art keywords
- virtual
- user
- information
- show house
- feeling device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims abstract description 13
- 238000009877 rendering Methods 0.000 claims abstract description 6
- 230000009471 action Effects 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 18
- 238000009499 grossing Methods 0.000 claims description 9
- 210000003423 ankle Anatomy 0.000 claims description 6
- 210000003127 knee Anatomy 0.000 claims description 6
- 230000006872 improvement Effects 0.000 claims description 5
- 230000000704 physical effect Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 4
- 210000001217 buttock Anatomy 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 210000002683 foot Anatomy 0.000 claims description 3
- 210000001699 lower leg Anatomy 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 235000007926 Craterellus fallax Nutrition 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 240000007175 Datura inoxia Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种基于体感控制的虚拟样板房漫游系统,包括:体感器,用于采集用户所在现实场景的图像和深度信息;体感器中间件,将体感器采集的图像和深度信息转化为计算机可读的信息;处理系统,将获得的计算机可读的信息与预置的模板信息进行匹配,根据匹配结果触发相应的指令信息,并将指令信息发送给虚拟现实引擎;虚拟现实引擎,用于承载虚拟模型,并根据处理系统发出的指令,控制虚拟相机的位置和朝向或使虚拟空间中物品进行响应交互;显示系统,用于输出虚拟现实引擎实时渲染的图像。本发明通过体感器和处理系统,用自然的身体语言直接控制虚拟漫游的过程,动动手即可与虚拟物品进行交互,用户代入感强。
Description
技术领域
本发明属于计算机图形技术应用领域,特别是一种基于体感控制的虚拟样板房漫游系统。
背景技术
随着数字科技的发展,虚拟样板房成为每个房地产公司必备的销售武器,极大的提升房地产开发商的品位和档次,是一种更直观的营销方式。以前,房地产商在做样板房上,都会有一笔相当大的开销,像设计、施工、专业人员讲解等等方面。虚拟样板房装修风格及配饰物只追求效果,不用考虑实物造价,比实际样板房有更大的优越性。有了虚拟样板房,可以让购房者亲眼观赏到几年后才能建成的优美小区环境设计,在虚拟样板房里,开关门会有对应的声音,电视和电脑画面会动态播放,金属和玻璃表面有自然的反射光泽。客户可以自由地搬动虚拟样板房当中的家具,可以选择自己喜欢的装修风格,更换地毯、墙纸等。通过虚拟样板房让购房者亲身感受到居室空间的温馨。
现有的虚拟样板房技术主要有几种:三维动画技术,基于数据头盔的虚拟现实技术和基于鼠标键盘等通用输入设备的虚拟现实技术。
三维动画技术因其简单廉价技术成熟,在楼盘广告中被大量使用,通常被用于宣传片的制作,对客户而言则是宣传大于体验。基于头戴或键鼠操作的虚拟漫游在近年来开始流行,它给客户更加个性化的体验,在一定程度上可以取代样板房的装修展示作用。
三维动画的不足之处在于无法与客户互动,客户只能被动接受而无法按照自己的想法仔细观察虚拟样板房。基于设备的虚拟漫游,需要对客户进行教育。考虑到当今的买房者多为30-50岁的中年人,大部分对键盘鼠标操作比较生疏。
基于体感的漫游技术则在此基础上又进了一步,用人类与生俱来的自然动作对虚拟场景进行控制,不仅可以完全替代现有虚拟漫游的方案,而且使客户能够快速适应操作方法。更进一步,可以使客户产生强烈的代入感,更好得传达开发商的品味和理念。
发明内容
本发明要解决的技术问题在于针对现有技术中基于数据头盔的虚拟现实技术中使用要求高而且无法进行深层次人机互动的缺陷,提供一种基于体感控制的虚拟样板房漫游系统。
本发明解决其技术问题所采用的技术方案是:一种基于体感控制的虚拟样板房漫游系统,包括:
体感器,用于采集用户所在现实场景的图像和深度信息;所述体感器有人体骨架跟踪功能;
体感器中间件,用于将体感器采集的原始数据,包括图像和深度信息,转化为计算机可读的信息;所述计算机可读的信息是能与虚拟现实引擎对应的格式化数据;
模板数据库,用于预置可接受的用户动作信息和可接受的动作对应的指令信息;
处理系统,用于将体感器中间件获得的计算机可读的信息与预置的模板信息进行匹配,根据匹配结果触发相应的指令信息,并将指令信息发送给虚拟现实引擎;
虚拟现实引擎,用于承载虚拟模型,对样板房的视觉现象和物理效果进行模拟,并根据处理系统发出的指令,控制虚拟相机的位置和朝向或使虚拟空间中物品进行响应交互,使其与用户的动作相对应;
显示系统,用于输出虚拟现实引擎实时渲染的图像。
按上述方案,所述的体感器中间件转化的计算机程序可读的数据为用户骨架节点的格式化数据帧和用户骨架节点坐标信息;所述模板数据库预置的可接受的用户动作信息为用户骨架节点的格式化数据帧和用户骨架节点坐标信息。
按上述方案,所述的用户骨架节点包括头、肩部中点、左手掌、右手掌和脊柱。
按上述方案,所述的用户骨架节点还包括右肩、右肘、右手腕、左肩、左肘、左手腕、臀部中点、右胯、左胯、右膝、左膝、右脚踝、左脚踝、右脚和左脚。
按上述方案,所述处理系统包括:
处理模块,用于将用户实际的动作信息和数据库中预置可接受的动作信息进行匹配,识别该用户动作是否是预置可接受的动作中的一种或几种的组合;并判断是否响应该动作信息;
输出模块,用于根据处理模块的判断结果,触发相应的指令发送给虚拟现实引擎。
按上述方案,所述处理系统中处理模块的信息匹配过程为:
采用动态时间规整(DynamicTimeWarping)的方式将经过体感器中间件采集的用户实际的动作信息对应的用户骨架节点的格式化数据帧和用户骨架节点坐标信息和预置的模板数据进行匹配。
所述处理系统中处理模块的信息匹配过程为。
按上述方案,所述处理系统中处理模块的信息匹配过程为:
采用改进的动态时间规整(IDTW)的方式将经过体感器中间件采集的用户实际的动作信息对应的用户骨架节点的格式化数据帧和用户骨架节点坐标信息和预置的模板数据进行匹配;
所述的改进的动态时间规整(IDTW)是通过引入约束条件,针对图像帧识别中的效率和准确度问题做了改进。
按上述方案,所述的改进的动态时间规整(IDTW)引入的约束条件包括:
加窗,是一种局部约束,使搜索路径不会偏离对角线路径太远。假设模板库里面某个模板是个M维的向量,数据流中的待测向量是个N维向量(M不一定等于N)。n为测试帧的时序编号,m为模板帧的时序编号,则约束条件如下:
m–nN/M<R
其中R是搜索路径的长度;
坡度加权,引入一个惩罚因子α,α>1,用于惩罚那些偏离对角线路径的选项,避免搜索路径过于陡峭或者搜索深度太浅,α值越大,将使得搜索路径里对角线越近;
步长模式,以可变的步长选择图像序列中的不同帧做处理;
动态端点,比对每一条路径的总距离并找到最小的一条;
平滑处理,平滑处理是对输入数据上进行平滑预处理。
按上述方案,所述虚拟现实引擎中所述视觉现象包括样板房的相对空间距离,相对高度,景深,虚拟现实引擎中所述的物理效果包括光影。
按上述方案,基于体感控制的虚拟样板房漫游系统还包括音频系统,用于输出虚拟现实引擎中的声音信息和虚拟解说员的解说。
本发明产生的有益效果是:
1.本发明通过体感器和处理系统,用自然的身体语言直接控制虚拟漫游的过程,动动手即可与虚拟物品进行交互,用户代入感强。
2.本发明不需要数据头盔或者操作鼠标键盘,用户教育成本低,使用门槛低。
3.本发明对周围环境要求少,适用于大多数售楼场合。
附图说明
图1是本发明实施例的系统结构示意图;
图2是本发明实施例的用户骨架节点示意图;
图3是本发明实施例的处理系统的工作流程图;
图4是本发明实施例的系统流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
图1是本发明实施例的系统结构示意图,如图1所示,一种基于体感控制的虚拟样板房漫游系统,包括:
体感器,用于采集用户所在现实场景的图像和深度信息;所述体感器有骨架跟踪功能;
体感器中间件,用于将体感器采集的原始数据,包括图像和深度信息,转化为计算机可读的信息;体感器中间件转化的计算机程序可读的数据是能与虚拟现实引擎对应的格式化数据,具体为用户骨架节点的格式化数据帧和用户骨架节点坐标信息;
模板数据库,用于预置可接受的用户动作信息和可接受的动作对应的指令信息;所述模板数据库预置的可接受的用户动作信息为用户骨架节点的格式化数据帧和用户骨架节点坐标信息;
处理系统,用于将体感器中间件获得的用户骨架节点的格式化数据帧和用户骨架节点坐标信息与预置的模板信息进行匹配,根据匹配结果触发相应的指令信息,并将指令信息发送给虚拟现实引擎;
虚拟现实引擎,用于承载虚拟模型,对样板房的视觉现象和物理效果进行模拟,并根据处理系统发出的指令,控制虚拟相机的位置和朝向或使虚拟空间中物品进行响应交互,使其与用户的动作相对应;
显示系统,用于输出虚拟现实引擎实时渲染的图像;
音频系统,用于输出虚拟现实引擎中的声音信息和虚拟解说员的解说。
这其中,虚拟现实引擎可以使用市面上有售的3D引擎、实时渲染引擎、游戏引擎等,也可以使用自行开发的实现了虚拟漫游功能的引擎;体感器硬件可以使用市面上有售的体感器,3D扫描器,也可以使用自行开发的实现了骨骼跟踪的体感设备;体感器中间件为体感器连接处理系统的驱动服务和程序;处理系统直接从体感器中间件获取数据并直接控制虚拟现实引擎,使虚拟相机产生与现实中人的动作对应的移动和旋转;显示系统可以是电视、投影、大型拼接电视墙等,将虚拟现实引擎实时渲染的图像输出出来;音频系统可以是各种音响设备。
体感器与处理系统通过串行通用输入接口相连,体感器的空间位置由现场技术人员进行调校,显示系统与处理系统的视频输出端相连。音响设备与处理系统的音频输出端相连,其空间位置由现场技术人员进行调校。
其中,用户骨架节点包括头、肩部中点、左手掌、右手掌、脊柱、右肩、右肘、右手腕、左肩、左肘、左手腕、臀部中点、右胯、左胯、右膝、左膝、右脚踝、左脚踝、右脚和左脚。其在人体的分布如图2所示。
模板数据库,用于预置可接受的动作对应的用户骨架节点的格式化数据帧和用户骨架节点坐标信息和可接受的动作对应的指令信息;用户骨架节点的格式化数据帧和用户骨架节点坐标信息用于表示用户身上特征骨架节点的空间位置和空间位置变化;用户骨架节点的格式化数据帧用向量表示;
处理系统包括:
处理模块,用于将用户实际的动作信息和数据库中预置可接受的动作信息进行匹配,识别该用户动作是否是预置可接受的动作中的一种或几种的组合;并判断是否响应该动作信息;
输出模块,用于根据处理模块的判断结果,触发相应的指令发送给虚拟现实引擎。
处理系统中处理模块的信息匹配过程为:采用改进的动态时间规整(IDTW)的方式将经过体感器中间件采集的用户实际的动作信息对应的用户骨架节点的格式化数据帧和用户骨架节点坐标信息和预置的模板数据进行匹配;
改进的动态时间规整(IDTW)是通过引入约束条件,针对图像帧识别中的效率和准确度问题做了改进。
具体约束条件如下:
效率改进
1)“加窗”(Windowing)
加窗,是一种局部约束,使搜索路径不会偏离对角线路径太远。假设模板库里面某个模板是个M维的向量,数据流中的待测向量是个N维向量(M不一定等于N)。n为测试帧的时序编号,m为模板帧的时序编号,则约束条件如下:
m–nN/M<R
其中R是搜索路径的长度;
加窗之后,只考虑路径斜率在窗口范围内的点,其他点不进行计算,所以提高了速度,也防止了路径过于陡峭从而出现错误匹配。
2)坡度加权(SlopeWeighting)
引入一个惩罚因子α>1,用于惩罚那些偏离对角线路径的选项,避免搜索路径过于陡峭或者搜索深度太浅。
α值越大,将使得搜索路径里对角线越近。
3)步长模式(Steppattern)
以可变的步长选择图像序列中的不同帧做处理,这在一定程度上会提到效率。
准确度改进
1)动态端点(DynamicEnding)
比对每一条路径的总距离并找到最小的一条,因为最小距离路径的结束点不一定与模板的结束点重合
2)平滑处理(Smoothing)
平滑处理是从输入数据上,比如对骨架数据进行预处理的一种方法。
另外,毕竟手势在每个人甚至同一个人身上做出来的效果都是不同的,为了使得手势模板系统更为丰富一点,我们还使用了将多个模板对应于通一个手势的办法。来提高在不同人群中识别的准确度。
本实施例中处理系统的工作流程如图3所示。
处理系统的工作原理为,系统在数据库中预置了大量可接受的动作,这些动作被定义为用户身上特征关节的空间位置和空间位置变化。在用户做出这样的动作时,处理系统通过匹配首先识别出该动作是否属于已知的动作中的一种或几种的组合,进而判断当前状态是否响应该动作。以上条件满足时,处理系统将持续观察用户连续动作的位置和幅度,同时将指令不断发送给虚拟现实引擎。
本实施例的系统流程如图4所示,体感器在其工作范围内检测是否有用户,检测到用户置后开始采集用户所在现实场景的彩色图片和深度信息,并不断的将采集的信息发送给体感器中间件进行处理。体感器中间件对信息进行处理后,发送给处理系统进行识别和匹配,信息类型包括用户身体位置信息和用户手势交互信息,识别和匹配以后,触发相应的控制指令;此时虚拟现实引擎处于等待就绪状态,根据处理系统发出的控制指令,虚拟现实引擎控制移动旋转虚拟相机或使虚拟空间中物品进行响应交互,使其与用户的动作相对应,并根据预设信息在用户到达特定位置后播放讲解。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (10)
1.一种基于体感控制的虚拟样板房漫游系统,其特征在于,包括:
体感器,用于采集用户所在现实场景的图像和深度信息;所述体感器有人体骨架跟踪功能;
体感器中间件,用于将体感器采集的原始数据,包括图像和深度信息,转化为计算机可读的信息;所述计算机可读的信息是能与虚拟现实引擎对应的格式化数据;
模板数据库,用于预置可接受的用户动作信息和可接受的动作对应的指令信息;
处理系统,用于将体感器中间件获得的计算机可读的信息与模板数据库中预置的模板信息进行匹配,根据匹配结果触发相应的指令信息,并将指令信息发送给虚拟现实引擎;
虚拟现实引擎,用于承载虚拟模型,对样板房的视觉现象和物理效果进行模拟,并根据处理系统发出的指令,控制虚拟相机的位置和朝向变化或控制虚拟空间中物品响应交互,使其与用户的动作相对应;
显示系统,用于输出虚拟现实引擎实时渲染的图像。
2.如权利要求1所述的基于体感控制的虚拟样板房漫游系统,其特征在于,所述的体感器中间件转化的计算机可读的数据为用户骨架节点的格式化数据帧和用户骨架节点坐标信息,所述模板数据库预置的可接受的用户动作信息为用户骨架节点的格式化数据帧和用户骨架节点坐标信息。
3.如权利要求1所述的基于体感控制的虚拟样板房漫游系统,其特征在于,所述的用户骨架节点包括头、肩部中点、左手掌、右手掌和脊柱。
4.如权利要求3所述的基于体感控制的虚拟样板房漫游系统,其特征在于,所述的用户骨架节点还包括右肩、右肘、右手腕、左肩、左肘、左手腕、臀部中点、右胯、左胯、右膝、左膝、右脚踝、左脚踝、右脚和左脚。
5.如权利要求2至4中任一所述的基于体感控制的虚拟样板房漫游系统,其特征在于,所述处理系统包括:
处理模块,用于将用户实际的动作信息和数据库中预置可接受的动作信息进行匹配,识别该用户动作是否是预置可接受的动作中的一种或几种的组合;并判断是否响应该动作信息;
输出模块,用于根据处理模块的判断结果,触发相应的指令发送给虚拟现实引擎。
6.如权利要求5所述的基于体感控制的虚拟样板房漫游系统,其特征在于,所述处理系统中处理模块的信息匹配过程为:
采用动态时间规整的方式将经过体感器中间件采集的用户实际的动作信息对应的用户骨架节点的格式化数据帧和用户骨架节点坐标信息和预置的模板数据进行匹配。
7.如权利要求5所述的基于体感控制的虚拟样板房漫游系统,其特征在于,所述处理系统中处理模块的信息匹配过程为:
采用改进的动态时间规整的方式将经过体感器中间件采集的用户实际的动作信息对应的用户骨架节点的格式化数据帧和用户骨架节点坐标信息和预置的模板数据进行匹配;
所述的改进的动态时间规整是通过引入约束条件,针对图像帧识别中的效率和准确度问题对动态时间规整做了改进。
8.如权利要求7所述的基于体感控制的虚拟样板房漫游系统,其特征在于,所述的改进的动态时间规整引入的约束条件包括:
加窗,是一种局部约束,使搜索路径不会偏离对角线路径太远;
假设模板库里面某个模板是个M维的向量,数据流中的待测向量是个N维向量,n为测试帧的时序编号,m为模板帧的时序编号,则约束条件如下:
m–nN/M<R
其中R是搜索路径的长度;
坡度加权,引入一个惩罚因子α,α>1,用于惩罚那些偏离对角线路径的选项,避免搜索路径过于陡峭或者搜索深度太浅,α值越大,将使得搜索路径里对角线越近;
步长模式,以可变的步长选择图像序列中的不同帧做处理;
动态端点,比对每一条路径的总距离并找到最小的一条;
平滑处理,平滑处理是对输入数据上进行平滑预处理。
9.如权利要求1所述的基于体感控制的虚拟样板房漫游系统,其特征在于,所述虚拟现实引擎中所述视觉现象包括样板房的相对空间距离,相对高度,景深,虚拟现实引擎中所述的物理效果包括光影。
10.如权利要求1所述的基于体感控制的虚拟样板房漫游系统,其特征在于,还包括音频系统,用于输出虚拟现实引擎中的声音信息和虚拟解说员的解说。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310044469.0A CN103116857B (zh) | 2013-02-01 | 2013-02-01 | 一种基于体感控制的虚拟样板房漫游系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310044469.0A CN103116857B (zh) | 2013-02-01 | 2013-02-01 | 一种基于体感控制的虚拟样板房漫游系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103116857A CN103116857A (zh) | 2013-05-22 |
CN103116857B true CN103116857B (zh) | 2015-12-23 |
Family
ID=48415221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310044469.0A Expired - Fee Related CN103116857B (zh) | 2013-02-01 | 2013-02-01 | 一种基于体感控制的虚拟样板房漫游系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103116857B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104777907B (zh) * | 2015-04-17 | 2018-05-25 | 中国科学院计算技术研究所 | 一种用于群体人机交互的系统 |
CN105303600A (zh) * | 2015-07-02 | 2016-02-03 | 北京美房云谷网络科技有限公司 | 一种使用虚拟现实眼镜查看3d数字楼盘的方法 |
CN106681479A (zh) * | 2015-11-05 | 2017-05-17 | 丰唐物联技术(深圳)有限公司 | 基于虚拟现实的用户交互方法及系统 |
CN105955469A (zh) * | 2016-04-26 | 2016-09-21 | 乐视控股(北京)有限公司 | 虚拟图像的控制方法及装置 |
CN106095068A (zh) * | 2016-04-26 | 2016-11-09 | 乐视控股(北京)有限公司 | 虚拟图像的控制方法及装置 |
CN106293093A (zh) * | 2016-08-16 | 2017-01-04 | 合肥东上多媒体科技有限公司 | 数字多媒体接收机 |
CN106249902A (zh) * | 2016-08-16 | 2016-12-21 | 合肥东上多媒体科技有限公司 | 多媒体虚拟展示平台 |
CN106326678A (zh) * | 2016-09-13 | 2017-01-11 | 捷开通讯(深圳)有限公司 | 基于虚拟现实的样房体验方法、体验设备和体验系统 |
CN106527724A (zh) * | 2016-11-14 | 2017-03-22 | 墨宝股份有限公司 | 一种实现虚拟现实场景的方法及系统 |
CN107066081B (zh) * | 2016-12-23 | 2023-09-15 | 歌尔科技有限公司 | 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备 |
CN107181930B (zh) * | 2017-04-27 | 2020-04-14 | 新疆微视创益信息科技有限公司 | 针对虚拟现实的监控系统及其监控方法 |
CN107219888A (zh) * | 2017-05-23 | 2017-09-29 | 北京中达金桥技术股份有限公司 | 基于Kinect的室内可扩展交互漫游实现方法及系统 |
CN107194996A (zh) * | 2017-06-09 | 2017-09-22 | 成都智建新业建筑设计咨询有限公司 | 在线三维家装设计与展示系统 |
CN107168538A (zh) * | 2017-06-12 | 2017-09-15 | 华侨大学 | 一种基于肢体动作进行情感运算的3d校园导览方法及系统 |
CN107292050A (zh) * | 2017-07-07 | 2017-10-24 | 四川云图瑞科技有限公司 | 基于虚幻4引擎技术的家装设计系统 |
CN107562186B (zh) * | 2017-07-14 | 2020-09-04 | 华侨大学 | 基于注意力辨识进行情感运算的3d校园导览方法 |
CN108694742A (zh) * | 2018-03-23 | 2018-10-23 | 深圳市家家顺物联科技有限公司 | 一种房源浏览方法、设备及存储介质 |
CN108874120A (zh) * | 2018-03-29 | 2018-11-23 | 北京字节跳动网络技术有限公司 | 人机交互系统、方法、计算机可读存储介质及交互装置 |
CN110478914B (zh) * | 2019-08-28 | 2021-03-16 | 武汉宇宙寓言影视发展有限公司 | 一种仿真儿童摇摆机的控制方法、系统及装置 |
CN110853150B (zh) * | 2019-11-18 | 2023-04-18 | 山东师范大学 | 适用于虚拟漫游系统的实际与虚拟空间的映射方法及系统 |
CN111984350B (zh) * | 2020-07-23 | 2024-04-16 | 深圳市秦班科技有限公司 | 一种基于虚拟现实技术的信息采集分析方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101504583A (zh) * | 2008-12-22 | 2009-08-12 | 杨贻方 | 一种立体可视看房系统 |
CN102737409A (zh) * | 2012-06-28 | 2012-10-17 | 北京中科广视科技有限公司 | 一种三维虚拟室内设计方案的生成方法 |
-
2013
- 2013-02-01 CN CN201310044469.0A patent/CN103116857B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101504583A (zh) * | 2008-12-22 | 2009-08-12 | 杨贻方 | 一种立体可视看房系统 |
CN102737409A (zh) * | 2012-06-28 | 2012-10-17 | 北京中科广视科技有限公司 | 一种三维虚拟室内设计方案的生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103116857A (zh) | 2013-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103116857B (zh) | 一种基于体感控制的虚拟样板房漫游系统 | |
US10325407B2 (en) | Attribute detection tools for mixed reality | |
CN107430437B (zh) | 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法 | |
CN103793060B (zh) | 一种用户交互系统和方法 | |
AU2014204252B2 (en) | Extramissive spatial imaging digital eye glass for virtual or augmediated vision | |
CN107632699B (zh) | 基于多感知数据融合的人机自然交互系统 | |
CN102945564A (zh) | 基于视频透视式增强现实的真三维建模系统和方法 | |
CN102778953B (zh) | 基于Kinect的皮影戏远程数字表演的体感控制方法 | |
CN104750931A (zh) | 应用于室内设计的智能设备控制布置系统 | |
US9811937B2 (en) | Coordinated gesture and locomotion for virtual pedestrians | |
Jimeno-Morenilla et al. | Augmented and virtual reality techniques for footwear | |
CN106774938A (zh) | 基于体感设备的人机交互集成装置 | |
Gao et al. | Digiclay: an interactive installation for virtual pottery using motion sensing technology | |
Sénécal et al. | Modelling life through time: cultural heritage case studies | |
Zhang | Computer-assisted human-computer interaction in visual communication | |
CN104484034A (zh) | 一种基于手势识别的手势运动基元过渡帧定位方法 | |
Pang et al. | Motion recognition based on Kinect for human-computer intelligent interaction | |
WO2019127325A1 (zh) | 信息处理方法、装置、云处理设备及计算机程序产品 | |
CN114581288A (zh) | 一种图像生成方法、装置、电子设备以及存储介质 | |
Varma et al. | Gestural interaction with three-dimensional interfaces; current research and recommendations | |
Yu et al. | Application of kinect-based motion recognition algorithm in cultural tourism | |
Wan et al. | Interactive shadow play animation system | |
Arora | Creative visual expression in immersive 3D environments | |
CN107516336A (zh) | 一种虚拟家居场景测距系统及方法 | |
Du et al. | Virtual Display and Interaction System Design of Bingxi Scroll Painting Based on Augmented Reality Technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20151223 |