CN115861581A - 一种基于混合现实的移动互联云服务方法及系统 - Google Patents
一种基于混合现实的移动互联云服务方法及系统 Download PDFInfo
- Publication number
- CN115861581A CN115861581A CN202310077774.3A CN202310077774A CN115861581A CN 115861581 A CN115861581 A CN 115861581A CN 202310077774 A CN202310077774 A CN 202310077774A CN 115861581 A CN115861581 A CN 115861581A
- Authority
- CN
- China
- Prior art keywords
- model
- user
- plane
- cloud service
- mixed reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本申请涉及一种基于混合现实的移动互联云服务方法及系统,方法包括根据户型图制作移动路径并向终端发出移动至指定位置的指令;根据扫描得到的图像绘制立体模型;响应于收到的指令将对象放置在选择位置处;确定视觉区域范围内用户肢体与对象是否存在重合区域,存在重合区域时在重合区域内随机选取一个或者多个向量作为标准向量以及根据视觉区域范围内用户肢体的运动趋势与标准向量移动对象。本申请公开的基于混合现实的移动互联云服务方法及系统,通过动态建模方式与模型可搬运移动的方式使用户能够基于真实环境进行深度体验,使用户能够对基于真实环境的修改进行深度理解。
Description
技术领域
本申请涉及虚拟现实技术领域,尤其是涉及一种基于混合现实的移动互联云服务方法及系统。
背景技术
混合现实技术是虚拟现实技术的进一步发展,该技术通过在现实场景呈现虚拟场景信息,在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路,以增强用户体验的真实感。从使用场景上考虑,混合现实技术具有更多的应用场景。
以室内设计为例,可以通过在实际场景中放置三维模型的方式来得到真实化的体验,并且可以通过移动的方式来进行调整,相比于图片展示和三维模型展示等方式,这种方式可以使用户在有参与感的同时对设计进行深度体验。
不同用户的户型和需求不尽相同,如何借助混合现实技术来实现该场景是一个值得研究的课题。
发明内容
本申请提供一种基于混合现实的移动互联云服务方法及系统,通过动态建模方式与模型可搬运移动的方式使用户能够基于真实环境进行深度体验,使用户能够对基于真实环境的修改进行深度理解。
本申请的上述目的是通过以下技术方案得以实现的:
第一方面,本申请提供了一种基于混合现实的移动互联云服务方法,包括:
响应于收到的指令采集图像;
根据扫描得到的图像绘制立体模型;
响应于收到的指令将对象放置在选择位置处;
确定视觉区域范围内用户肢体与对象是否存在重合区域,存在重合区域时在重合区域内随机选取一个或者多个向量作为标准向量;以及
根据视觉区域范围内用户肢体的运动趋势与标准向量移动对象;
其中,非移动状态下,立体模型内对象的位置固定,对象的显示部分根据终端的视野范围确定。
在第一方面的一种可能的实现方式中,绘制立体模型包括:
识别视线范围内的界面特征并确定界面特征所在平面;
将界面特征所在平面向四周延伸,直至与其他的界面特征所在平面相交;
根据相交线对界面特征所在平面进行裁切,得到立体模型基准面;以及
使用立体模型基准面绘制立体模型。
在第一方面的一种可能的实现方式中,放置对象的过程包括:
根据用户的指向在立体模型的面上选取一个基准点;
计算对象在基准点所在面上的投影,移动投影至投影在在基准点所在面内;以及
根据投影将对象放置在基准点所在面上。
在第一方面的一种可能的实现方式中,标准向量的数量至少为两个,任意两个标准向量不平行。
在第一方面的一种可能的实现方式中,标准向量在根据运动趋势移动的过程中,其与运动趋势的相对位置保持不变。
在第一方面的一种可能的实现方式中,绘制立体模型过程中还包括:
获取位于立体模型内的既有模型的多个点坐标;
根据点坐标确定与既有模型生成对应的模型区域,模型区域包括多个平面和多个曲面;以及
将模型区域从立体模型中删除。
在第一方面的一种可能的实现方式中,生成模型区域的过程包括:
根据既有模型的点坐标生成平面和/或曲面;
对小于设定面积的平面和/或曲面进行舍弃处理;以及
对相邻面之间的破损处使用一个修补平面进行修补,修补平面的边缘处与相邻的面的边缘进行融合。
第二方面,本申请提供了一种基于混合现实的移动互联云服务系统,包括:
第一处理单元,用于响应于收到的指令采集图像;
模型绘制单元,用于根据扫描得到的图像绘制立体模型;
放置单元,用于响应于收到的指令将对象放置在选择位置处;
第二处理单元,用于确定视觉区域范围内用户肢体与对象是否存在重合区域,存在重合区域时在重合区域内随机选取一个或者多个向量作为标准向量;以及
移动单元,用于根据视觉区域范围内用户肢体的运动趋势与标准向量移动对象;
其中,非移动状态下,立体模型内对象的位置固定,对象的显示部分根据终端的视野范围确定。
第三方面,本申请提供了一种基于混合现实的移动互联云服务系统,所述系统包括:
一个或多个存储器,用于存储指令;以及
一个或多个处理器,用于从所述存储器中调用并运行所述指令,执行如第一方面及第一方面任意可能的实现方式中所述的方法。
第四方面,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质包括:
程序,当所述程序被处理器运行时,如第一方面及第一方面任意可能的实现方式中所述的方法被执行。
第五方面,本申请提供了一种计算机程序产品,包括程序指令,当所述程序指令被计算设备运行时,如第一方面及第一方面任意可能的实现方式中所述的方法被执行。
第六方面,本申请提供了一种芯片系统,该芯片系统包括处理器,用于实现上述各方面中所涉及的功能,例如,生成,接收,发送,或处理上述方法中所涉及的数据和/或信息。
该芯片系统,可以由芯片构成,也可以包括芯片和其他分立器件。
在一种可能的设计中,该芯片系统还包括存储器,该存储器,用于保存必要的程序指令和数据。该处理器和该存储器可以解耦,分别设置在不同的设备上,通过有线或者无线的方式连接,或者处理器和该存储器也可以耦合在同一个设备上。
整体而言,本申请提供的基于混合现实的移动互联云服务方法及系统,能够基于用户所在房间绘制立体模型,然后将用户选择的对象直接放置在立体模型中,对象还可以进行移动,移动过程视为对立体模型内部的改造。这种方式可以给用户提供沉浸式的体验,使用户对于设计有更加深刻的理解。
附图说明
图1是本申请提供的一种基于混合现实的移动互联云服务方法的步骤示意框图。
图2是本申请提供的一种绘制立体模型的步骤流程框图。
图3是本申请提供的一种立体模型基准面的生成过程示意图。
图4是本申请提供的一种投影不完全在立体模型内的示意图。
图5是本申请提供的一种投影完全在立体模型内的示意图。
图6是本申请提供的一种对立体模型的既有模型进行处理的步骤示意框图。
图7是本申请提供的一种生成模型区域的步骤示意框图。
具体实施方式
以下结合附图,对本申请中的技术方案作进一步详细说明。
本申请公开的基于混合现实的移动互联云服务方法,应用于MR设备,用户穿戴上MR设备后,MR设备会将用户视线范围内的真实图像反馈给用户,当用户的视野范围内存在虚拟影像时,同时将虚拟影像反馈给用户,此时虚拟影像会与真实图像叠加,整个过程中,虚拟影像的位置固定,不会随着用户视野范围的移动而移动。
请参阅图1,为本申请公开的一种基于混合现实的移动互联云服务方法,方法包括以下步骤:
S101,响应于收到的指令采集图像;
S102,根据扫描得到的图像绘制立体模型;
S103,响应于收到的指令将对象放置在选择位置处;
S104,确定视觉区域范围内用户肢体与对象是否存在重合区域,存在重合区域时在重合区域内随机选取一个或者多个向量作为标准向量;以及
S105,根据视觉区域范围内用户肢体的运动趋势与标准向量移动对象;
其中,非移动状态下,立体模型内对象的位置固定,对象的显示部分根据终端的视野范围确定。
具体而言,在步骤S101中,用户佩戴完成终端(MR设备)后,终端会监测用户的移动状态和视线,此处用户的移动状态指的是用户在房间内移动,用户的视线指的是用户的视野范围。用户的移动状态通过终端上的传感器来实现,例如重力传感器(可以用于感知倾斜)和陀螺仪(可以用于感知角运动)。
该过程中采集到的图像会用于绘制立体模型,也就是步骤S102中的内容。绘制立体模型的作用是建立基准坐标系,因为在虚拟影像的投递过程中,虚拟影像在基准坐标系中的位置保持不动,其向用户展示的部分会根据用户的视野范围确定。
在一些可能的实现方式中,终端会引导用户的实现朝向一个角落,因为一个角落能够提供三个平面,基于这三个平面能够直接构建一个三维坐标系,后续过程中生成的立体模型均与该三维坐标系作为基准。
此处需要说明的是,对于立体模型的建立,可以是整个房间的一部分,也可以房间的全部,当用户的视野中出现新的平面(地面、墙面或者屋顶)时,该平面会自动加入到立体模型中。
此处为了方便理解,需要对AR(增强现实)和MR(混合现实)的区别进行说明,AR呈现在用户视野范围内的虚拟影像是移动的,该虚拟影像会始终呈现在用户的视野范围内;MR呈现的虚拟影像是固定的,当用户的视野范围与虚拟影像存在重合区域时,该重合部分才会呈现在用户的视野范围内。
因此在本申请中,需要首先建立立体模型,立体模型带有坐标系,虚拟影像在该坐标系中的位置固定,用户的视野范围也能够通过坐标来表示,基于数字化的实现,可以在立体模型中放置虚拟影像,然后根据用户的视野范围和虚拟影像的位置将虚拟影像展示给用户。
然后执行步骤S103,该步骤中,用户会下发指令,该指令的内容是将对象放置在选择位置处,此处的对象指的是室内设计中使用的各种硬装和软装,例如灯具、家具和电气设备,这些均可以通过三维模型(模型比例为1:1)的方式放置在立体模型中,立体模型是根据用户所在房间按照1:1的模型比例构建。
对象放置完成后,用户可以在立体模型中对设计进行体验。具体的体验过程是用户在房间内走动,其位置和视野范围会随着用户的身体进行变动,该变动会同步在立体模型进行更新。整个过程中,用户能够在一个实际的场景中进行体验,可以进行沉浸式的体验。
在非移动状态下,立体模型内对象的位置固定,对象的显示部分根据终端的视野范围确定。移动状态下,对象的位置会随着用户的推动或者搬动而移动。
当用户的视野范围与任意一个对象出现重合区域时,重合区域内的这部分对象会显示在用户的视野范围内。这种方式可以给用户提供真实的沉浸体验,例如用户在新购买的房屋中可以直接佩戴终端(MR设备),终端对房间进行立体模型建模后,用户就可以根据自己的喜好对房间进行设计,设计过程中使用的虚拟影像直接从云端下载。
也就是本申请中用户佩戴的终端(MR设备)能够与移动互联网进行数据通讯,通讯的对象是云端,云端存储有各种虚拟影像,用户可以对这些虚拟影像进行调用。这种方式能够跳过过程将最终结果直接呈现在用户的视野内,并且由于是基于1:1的比例模型进行搭建,可以使用户对于尺寸和色彩有更加深刻的理解。
当然,虚拟影像在立体模型中也可以进行移动,具体的方式在步骤S104中,该步骤中,会确定视觉区域范围内用户肢体与对象是否存在重合区域,存在重合区域时在重合区域内随机选取一个或者多个向量作为标准向量,在本申请中,用户肢体指的是用户的手,当用户的手与对象是否存在重合区域时,会在在重合区域内随机选取一个或者多个向量作为标准向量,标准向量的作用是对象在移动过程中的参考。
在步骤S105中,根据视觉区域范围内用户肢体的运动趋势与标准向量移动对象,运动趋势指的是用户肢体的移动方向,例如用户推动沙发,此时沙发具有一个从左到右的运动趋势,标准向量的作用是确定对象与用户肢体间的相对位置,这样可以使对象在移动过程中,与用户肢体间的相对位置保持静止。
整体而言,本申请提供的基于混合现实的移动互联云服务方法,能够基于用户所在房间绘制立体模型,然后将用户选择的对象直接放置在立体模型中,对象还可以进行移动,移动过程视为对立体模型内部的改造。这种方式可以给用户提供沉浸式的体验,使用户对于设计有更加深刻的理解。
请参阅图2和图3,绘制立体模型的步骤如下:
S201,识别视线范围内的界面特征并确定界面特征所在平面;
S202,将界面特征所在平面向四周延伸,直至与其他的界面特征所在平面相交;
S203,根据相交线对界面特征所在平面进行裁切,得到立体模型基准面;以及
S204,使用立体模型基准面绘制立体模型。
在步骤S201中,首先识别视线范围内的界面特征并确定界面特征所在平面,此处的界面特征指的是作为墙面和地面应当具有的特征,以地面和墙面为例,借助激光雷达进行识别,激光雷达进行扫描后,会得到一些坐标,对于地面和墙面而言,这些坐标中的大部分可以位于一个平面上,在平面上的点就是界面特征。
当然也可以使用视觉识别的方案,视觉识别神经网络经过学习,能够从图片中识别到地面和墙面,识别过程中使用的特征就是界面特征,然后借助激光雷达生成的坐标来确定这些界面特征的位置,最后根据界面特征的位置来得到界面特征所在平面。
这些得到的平面在三维坐标系中会延伸,也就是步骤S102中的内容,界面特征所在平面向四周延伸,直至与其他的界面特征所在平面相交,多个平面在三维坐标系中延伸,通过两个平面的相交来对界面特征所在平面进行裁切,此处的裁切也可以理解为是当一个界面特征所在平面与另一个界面特征所在平面发生接触后,该界面特征所在平面停止延伸。
这种方式的优势在于能够快速生成三维模型,以生成地面所在的平面为例,在将图片中的地面识别出来后,使用三个坐标点就可以在三维坐标系中创建一个平面,一个房间中平面(包括地面、墙面和屋顶)的数量是有限的,这种方式能够在用户视野范围移动的过程中同步建立三维模型。
另外,这种创建方式还能够最大程度的降低干扰因素的影响,例如在一些已经进行过装修并放置有物品的房间内,本申请提供的方式可以将装修和放置的物品(家具、家电、墙面上的软装、石膏线和灯具等)都忽略掉,能够以更小的数据处理量来得到结果。
在步骤S203中,会根据相交线对界面特征所在平面进行裁切,得到立体模型基准面,这些立体模型基准面具有位置和边界,并且和其他的立体模型基准面的相对位置也是固定的,因此可以直接用于绘制立体模型,绘制立体模型的过程在步骤S204中进行。
请参阅图4和图5,放置对象的过程如下:
S301,根据用户的指向在立体模型的面上选取一个基准点;
S302,计算对象在基准点所在面上的投影,移动投影至投影在在基准点所在面内;以及
S303,根据投影将对象放置在基准点所在面上。
在步骤S301中,会根据用户的指向在立体模型的面上选取一个基准点,这个基准点是对象的拟定放置位置。拟定放置位置得到执行步骤S302,该步骤中会计算对象在基准点所在面上的投影,投影的作用是确定对象是否能够全部在立体模型内,如果无法使对象全部在立体模型内,则需要根据基准点来调整投影的位置,调整完成后,将对象放置在基准点所在面上,也就是步骤S303中的内容。
此处需要说明的是,对象在制作过程中,同时需要对其固有属性进行配置,例如家具需要放置在地面上,灯具需要悬挂在屋顶上或者固定在侧墙上。固有属性参考物品在实际环境中的移动,并且固有属性会随着对象发送给终端。
前文中提到需要确定用户肢体与对象是否存在重合区域,是因为在真实环境中,用户肢体与物品的接触通过皮肤和神经进行感知,在混合现实环境中,则需要通过坐标进行感知。
另外,对于用户肢体的移动,使用趋势判定的方式进行辅助处理,趋势判定也可以称之为习惯判定,例如在实际的场景中,搬运物品时会有一些特定特征,举例说明:
桌子和冰箱这类会使用推动或者抬起后搬运的方式进行移动;
小体积物品(例如装饰)会拿起后进行移动;
当这些特定特征(包括移动和接触)出现时,终端会判定用户想要对对象进行移动。趋势判定过程中使用的数据除了终端处的视野数据外,还有终端内传感器中产生的其他数据,例如转动数据、摆动数据、升降数据和移动数据等。
标准向量在根据运动趋势移动的过程中,其与运动趋势的相对位置保持不变,这样可以使对象的移动与其在真实场景中的移动保持一致。运动趋势同样可以使用向量进行表示,如果对象的运动趋势是一条直线,那么该运动趋势可以使用一个向量表示,如果对象的运动趋势是一条曲线,那么该运动趋势可以使用多个向量表示。举例说明,在移动物体的过程中,物体与手的相对位置不会发生变化,因此在本申请中,使用标准向量在虚拟环境中来重现这一场景。
标准向量的另一个作用是作为模糊判定来使用,因为对于用户的手是否与对象进行了接触,无法进行精确判定,因为精确判定需要进行大量的数据计算,这会使得体验感降低,因为用户需要等待终端判定结果,但是在实际过程中,该判定是瞬时完成的。
标准向量的生成方向如下,选取对象表面上的一些点作为起点,然后选取手套上有一些定位点作为终点,起点和终点的数量相同,两两为一组。
模糊判定和趋势判定的优势在于完成时间,在趋势判定确定用户的意向后,标准向量的使用方式如下,对象选取一些点坐标,用户的手生成另一些点坐标,例如使用激光雷达扫描用户佩戴的特制手套,手套上有一些定位点,手套上的定位点位于对象外部时,生成的向量为第一向量,手套上的定位点位于对象内部时,生成的向量为第二向量。
应理解,标准向量的生成规则是确定的,例如向量的起点在对象上,终点在手套上,在真实环境中生成的标准向量都应当朝向手心,但是在混合现实中受限于没有物理阻挡,会出现标准向量分组的情况,一组标准向量朝向手心,一组标准向量背离手心。但是这两种情况下的标准向量均能够使用。
当用户的手与对象进行接触后,终端需要快速判定是否需要移动对象,否则用户的手就会穿过对象,因此在本申请中使用了第一向量和第二向量,当第一向量和第二向量出现且满足要求时,对象就会随着用户手的移动而移动。
当然,用户所在的环境也可能出现存在物品的情况,此时绘制立体模型过程中对于出现的物品,请参阅图6,使用如下方式进行处理:
S401,获取位于立体模型内的既有模型的多个点坐标;
S402,根据点坐标确定与既有模型生成对应的模型区域,模型区域包括多个平面和多个曲面;以及
S403,将模型区域从立体模型中删除。
用户所在的环境中存在的物品称为既有模型,在步骤S401至步骤S403中,会获取属于既有模型的多个点坐标,然后根据这些点坐标生成多个平面和多个曲面,这些平面和曲面所围成的区域称为模型区域,最后再将模型区域从立体模型中删除。
删除后,意味着立体模型存在一些缺失部分,缺失部分表示对象无法移动到模型区域内。这样在后续放置对象的过程中,就不会出现对象与既有模型存在重合的问题。对于用户而言,既有模型仍然在视野中出现。
请参阅图7,生成模型区域的过程如下:
S501,根据既有模型的点坐标生成平面和/或曲面;
S502,对小于设定面积的平面和/或曲面进行舍弃处理;以及
S503,对相邻面之间的破损处使用一个修补平面进行修补,修补平面的边缘处与相邻的面的边缘进行融合。
步骤S501至步骤S503解决的问题是如何快速生成既有模型的边界,在本申请中,使用平面和曲面来进行表示,生成过程中,一些大型面的相邻处会产生一定量零散面或者缺失,对于这些零散面或者缺失,直接进行舍弃处理,然后使用一个修补平面进行替换,修补平面的边缘处与相邻的面的边缘进行融合。
应理解,两个相邻的面之间存在零散面或者缺失,使用修补平面可以使既有模型对应的模型区域完整,使模型区域可以在步骤S403中删除;另外,这种处理方式还可以加快数据的处理速度,因为在实际的数据采集过程中,用户的视线在一个区域的停留时间有限,不会出现针对一个固定区域进行长时间采集的情况。但如果用户的视线再次出现在该区域,可以对该区域继续进行数据采集,继续采集的数据用来修补缺失区域。
本申请还提供了一种基于混合现实的移动互联云服务系统,包括:
第一处理单元,用于响应于收到的指令采集图像;
模型绘制单元,用于根据扫描得到的图像绘制立体模型;
放置单元,用于响应于收到的指令将对象放置在选择位置处;
第二处理单元,用于确定视觉区域范围内用户肢体与对象是否存在重合区域,存在重合区域时在重合区域内随机选取一个或者多个向量作为标准向量;以及
移动单元,用于根据视觉区域范围内用户肢体的运动趋势与标准向量移动对象;
其中,非移动状态下,立体模型内对象的位置固定,对象的显示部分根据终端的视野范围确定。
进一步地,还包括:
识别单元,用于识别视线范围内的界面特征并确定界面特征所在平面;
延伸单元,用于将界面特征所在平面向四周延伸,直至与其他的界面特征所在平面相交;
裁切单元,用于根据相交线对界面特征所在平面进行裁切,得到立体模型基准面;以及
绘制单元,用于使用立体模型基准面绘制立体模型。
进一步地,还包括:
选取单元,用于根据用户的指向在立体模型的面上选取一个基准点;
第三处理单元,用于计算对象在基准点所在面上的投影,移动投影至投影在在基准点所在面内;以及
第四处理单元,用于根据投影将对象放置在基准点所在面上。
进一步地,标准向量的数量至少为两个,任意两个标准向量不平行。
进一步地,标准向量在根据运动趋势移动的过程中,其与运动趋势的相对位置保持不变。
进一步地,还包括:
获取单元,用于获取位于立体模型内的既有模型的多个点坐标;
第一生成单元,用于根据点坐标确定与既有模型生成对应的模型区域,模型区域包括多个平面和多个曲面;以及
删除单元,用于将模型区域从立体模型中删除。
进一步地,还包括:
第二生成单元,用于根据既有模型的点坐标生成平面和/或曲面;
舍弃单元,用于对小于设定面积的平面和/或曲面进行舍弃处理;以及
修补融合单元,用于对相邻面之间的破损处使用一个修补平面进行修补,修补平面的边缘处与相邻的面的边缘进行融合。
在一个例子中,以上任一装置中的单元可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个专用集成电路(application specificintegratedcircuit,ASIC),或,一个或多个数字信号处理器(digital signal processor,DSP),或,一个或者多个现场可编程门阵列(field programmable gate array,FPGA),或这些集成电路形式中至少两种的组合。
再如,当装置中的单元可以通过处理元件调度程序的形式实现时,该处理元件可以是通用处理器,例如中央处理器(central processing unit,CPU)或其它可以调用程序的处理器。再如,这些单元可以集成在一起,以片上系统(system-on-a-chip,SOC)的形式实现。
在本申请中可能出现的对各种消息/信息/设备/网元/系统/装置/动作/操作/流程/概念等各类客体进行了赋名,可以理解的是,这些具体的名称并不构成对相关客体的限定,所赋名称可随着场景,语境或者使用习惯等因素而变更,对本申请中技术术语的技术含义的理解,应主要从其在技术方案中所体现/执行的功能和技术效果来确定。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
还应理解,在本申请的各个实施例中,第一、第二等只是为了表示多个对象是不同的。例如第一时间窗和第二时间窗只是为了表示出不同的时间窗。而不应该对时间窗的本身产生任何影响,上述的第一、第二等不应该对本申请的实施例造成任何限制。
还应理解,在本申请的各个实施例中,如果没有特殊说明以及逻辑冲突,不同的实施例之间的术语和/或描述具有一致性、且可以相互引用,不同的实施例中的技术特征根据其内在的逻辑关系可以组合形成新的实施例。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个计算机可读存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的计算机可读存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请还提供了一种计算机程序产品,该计算机程序产品包括指令,当该指令被执行时,以使得该移动互联云服务系统执行对应于上述方法的移动互联云服务系统的操作。
本申请还提供了一种基于混合现实的移动互联云服务系统,所述系统包括:
一个或多个存储器,用于存储指令;以及
一个或多个处理器,用于从所述存储器中调用并运行所述指令,执行如上述内容中所述的方法。
本申请还提供了一种芯片系统,该芯片系统包括处理器,用于实现上述内容中所涉及的功能,例如,生成,接收,发送,或处理上述方法中所涉及的数据和/或信息。
该芯片系统,可以由芯片构成,也可以包括芯片和其他分立器件。
上述任一处提到的处理器,可以是一个CPU,微处理器,ASIC,或一个或多个用于控制上述的反馈信息传输的方法的程序执行的集成电路。
在一种可能的设计中,该芯片系统还包括存储器,该存储器,用于保存必要的程序指令和数据。该处理器和该存储器可以解耦,分别设置在不同的设备上,通过有线或者无线的方式连接,以支持该芯片系统实现上述实施例中的各种功能。或者,该处理器和该存储器也可以耦合在同一个设备上。
可选地,该计算机指令被存储在存储器中。
可选地,该存储器为该芯片内的存储单元,如寄存器、缓存等,该存储器还可以是该终端内的位于该芯片外部的存储单元,如ROM或可存储静态信息和指令的其他类型的静态存储设备,RAM等。
可以理解,本申请中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。
非易失性存储器可以是ROM、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electricallyEPROM,EEPROM)或闪存。
易失性存储器可以是RAM,其用作外部高速缓存。RAM有多种不同的类型,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic RAM,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhancedSDRAM,ESDRAM)、同步连接动态随机存取存储器(synch link DRAM,SLDRAM)和直接内存总线随机存取存储器。
本具体实施方式的实施例均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。
Claims (8)
1.一种基于混合现实的移动互联云服务方法,其特征在于,包括:
响应于收到的指令采集图像;
根据扫描得到的图像绘制立体模型;
响应于收到的指令将对象放置在选择位置处;
确定视觉区域范围内用户肢体与对象是否存在重合区域,存在重合区域时在重合区域内随机选取一个或者多个向量作为标准向量;以及
根据视觉区域范围内用户肢体的运动趋势与标准向量移动对象;
其中,非移动状态下,立体模型内对象的位置固定,对象的显示部分根据终端的视野范围确定。
2.根据权利要求1所述的基于混合现实的移动互联云服务方法,其特征在于,绘制立体模型包括:
识别视线范围内的界面特征并确定界面特征所在平面;
将界面特征所在平面向四周延伸,直至与其他的界面特征所在平面相交;
根据相交线对界面特征所在平面进行裁切,得到立体模型基准面;以及
使用立体模型基准面绘制立体模型。
3.根据权利要求1所述的基于混合现实的移动互联云服务方法,其特征在于,放置对象的过程包括:
根据用户的指向在立体模型的面上选取一个基准点;
计算对象在基准点所在面上的投影,移动投影至投影所在基准点所在面内;以及
根据投影将对象放置在基准点所在面上。
4.根据权利要求1至3中任意一项所述的基于混合现实的移动互联云服务方法,其特征在于,标准向量的数量至少为两个,任意两个标准向量不平行。
5.根据权利要求4所述的基于混合现实的移动互联云服务方法,其特征在于,标准向量在根据运动趋势移动的过程中,其与运动趋势的相对位置保持不变。
6.根据权利要求1所述的基于混合现实的移动互联云服务方法,其特征在于,绘制立体模型过程中还包括:
获取位于立体模型内的既有模型的多个点坐标;
根据点坐标确定与既有模型生成对应的模型区域,模型区域包括多个平面和多个曲面;以及
将模型区域从立体模型中删除。
7.根据权利要求6所述的基于混合现实的移动互联云服务方法,其特征在于,生成模型区域的过程包括:
根据既有模型的点坐标生成平面和/或曲面;
对小于设定面积的平面和/或曲面进行舍弃处理;以及
对相邻面之间的破损处使用一个修补平面进行修补,修补平面的边缘处与相邻的面的边缘进行融合。
8.一种基于混合现实的移动互联云服务系统,其特征在于,包括:
第一处理单元,用于响应于收到的指令采集图像;
模型绘制单元,用于根据扫描得到的图像绘制立体模型;
放置单元,用于响应于收到的指令将对象放置在选择位置处;
第二处理单元,用于确定视觉区域范围内用户肢体与对象是否存在重合区域,存在重合区域时在重合区域内随机选取一个或者多个向量作为标准向量;以及
移动单元,用于根据视觉区域范围内用户肢体的运动趋势与标准向量移动对象;
其中,非移动状态下,立体模型内对象的位置固定,对象的显示部分根据终端的视野范围确定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310077774.3A CN115861581B (zh) | 2023-02-08 | 2023-02-08 | 一种基于混合现实的移动互联云服务方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310077774.3A CN115861581B (zh) | 2023-02-08 | 2023-02-08 | 一种基于混合现实的移动互联云服务方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115861581A true CN115861581A (zh) | 2023-03-28 |
CN115861581B CN115861581B (zh) | 2023-05-05 |
Family
ID=85657699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310077774.3A Active CN115861581B (zh) | 2023-02-08 | 2023-02-08 | 一种基于混合现实的移动互联云服务方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115861581B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017142783A (ja) * | 2017-01-04 | 2017-08-17 | 株式会社コロプラ | 仮想空間における視界領域調整方法、およびプログラム |
US20180197341A1 (en) * | 2016-06-10 | 2018-07-12 | Dirtt Environmental Solutions, Ltd. | Mixed-reality architectural design environment |
US20180350145A1 (en) * | 2017-05-30 | 2018-12-06 | Reston Restoration | Augmented Reality Devices and Methods Thereof for Rendering Virtual Objects |
US20200326783A1 (en) * | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head mounted display device and operating method thereof |
CN111880652A (zh) * | 2020-07-16 | 2020-11-03 | 北京悉见科技有限公司 | 用于移动ar对象位置的方法、装置及存储介质 |
CN113703571A (zh) * | 2021-08-24 | 2021-11-26 | 梁枫 | 一种虚拟现实人机交互的方法、装置、设备和介质 |
WO2022021980A1 (zh) * | 2020-07-30 | 2022-02-03 | 北京市商汤科技开发有限公司 | 虚拟对象的控制方法、装置、电子设备及存储介质 |
US20220066569A1 (en) * | 2019-05-14 | 2022-03-03 | Guangdong Oppo Mobile Telecommunications Corp. Ltd. | Object interaction method and system, and computer-readable medium |
CN114879851A (zh) * | 2022-07-11 | 2022-08-09 | 深圳市中视典数字科技有限公司 | 一种基于虚拟现实的数据采集方法及系统 |
-
2023
- 2023-02-08 CN CN202310077774.3A patent/CN115861581B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180197341A1 (en) * | 2016-06-10 | 2018-07-12 | Dirtt Environmental Solutions, Ltd. | Mixed-reality architectural design environment |
JP2017142783A (ja) * | 2017-01-04 | 2017-08-17 | 株式会社コロプラ | 仮想空間における視界領域調整方法、およびプログラム |
US20180350145A1 (en) * | 2017-05-30 | 2018-12-06 | Reston Restoration | Augmented Reality Devices and Methods Thereof for Rendering Virtual Objects |
US20200326783A1 (en) * | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head mounted display device and operating method thereof |
US20220066569A1 (en) * | 2019-05-14 | 2022-03-03 | Guangdong Oppo Mobile Telecommunications Corp. Ltd. | Object interaction method and system, and computer-readable medium |
CN111880652A (zh) * | 2020-07-16 | 2020-11-03 | 北京悉见科技有限公司 | 用于移动ar对象位置的方法、装置及存储介质 |
WO2022021980A1 (zh) * | 2020-07-30 | 2022-02-03 | 北京市商汤科技开发有限公司 | 虚拟对象的控制方法、装置、电子设备及存储介质 |
CN113703571A (zh) * | 2021-08-24 | 2021-11-26 | 梁枫 | 一种虚拟现实人机交互的方法、装置、设备和介质 |
CN114879851A (zh) * | 2022-07-11 | 2022-08-09 | 深圳市中视典数字科技有限公司 | 一种基于虚拟现实的数据采集方法及系统 |
Non-Patent Citations (4)
Title |
---|
MATHIAS N. LYSTBÆK 等: "Gaze-Hand Alignment: Combining Eye Gaze and Mid-Air Pointing for Interacting with Menus in Augmented Reality", PACM ON HUMAN-COMPUTER INTERACTION * |
施静 等: "增强现实电子沙盘的手势交互技术研究", 中国优秀硕士学位论文全文数据库 信息科技辑 * |
胡勇 等: "混合现实电子沙盘虚拟对象的手眼协同交互设计研究", 包装工程 * |
陈学文 等: "虚拟手操作随动仿真算法研究", 载人航天 * |
Also Published As
Publication number | Publication date |
---|---|
CN115861581B (zh) | 2023-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11494995B2 (en) | Systems and methods for virtual and augmented reality | |
JP7561254B2 (ja) | レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法 | |
EP3365874B1 (en) | Mixed-reality and cad architectural design environment | |
EP3039656B1 (en) | Method and apparatus for representing physical scene | |
JP6625523B2 (ja) | Hudオブジェクト設計および表示方法。 | |
KR102216736B1 (ko) | 깊이 센서들을 사용하는 구조적 모델링 | |
CN110163942B (zh) | 一种图像数据处理方法和装置 | |
CN116324680A (zh) | 用于操纵环境中的对象的方法 | |
CN114051629A (zh) | 密集3d重建数据的缓存和更新 | |
JP7556839B2 (ja) | 複合現実において動的仮想コンテンツを生成するデバイスおよび方法 | |
US10147240B2 (en) | Product image processing method, and apparatus and system thereof | |
JP2022545598A (ja) | 仮想対象の調整方法、装置、電子機器、コンピュータ記憶媒体及びプログラム | |
EP3594906B1 (en) | Method and device for providing augmented reality, and computer program | |
CN114942737A (zh) | 显示方法、装置、显示设备、头戴式设备及存储介质 | |
WO2024093610A1 (zh) | 阴影渲染方法、装置、电子设备及可读存储介质 | |
CN117372475A (zh) | 眼球追踪方法和电子设备 | |
CN115861581A (zh) | 一种基于混合现实的移动互联云服务方法及系统 | |
CN116501209A (zh) | 编辑视角的调整方法、装置、电子设备及可读存储介质 | |
US20210278954A1 (en) | Projecting inputs to three-dimensional object representations | |
Trivedi et al. | A Survey on Augmented Reality and its Applications in the field of Interior Design | |
JP7573017B2 (ja) | 深度情報を用いた高速3d再構築 | |
CN115439625B (zh) | 建筑草图辅助绘制方法、装置、存储介质及绘制设备 | |
CN115048001A (zh) | 虚拟对象的显示方法、装置、电子设备及存储介质 | |
CN116841427A (zh) | 显示方法、显示装置、电子设备和可读存储介质 | |
CN115963930A (zh) | 一种在扩展现实环境中生成虚拟辅助线的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |