CN111984172A - 一种家具移动方法及装置 - Google Patents
一种家具移动方法及装置 Download PDFInfo
- Publication number
- CN111984172A CN111984172A CN202010682657.6A CN202010682657A CN111984172A CN 111984172 A CN111984172 A CN 111984172A CN 202010682657 A CN202010682657 A CN 202010682657A CN 111984172 A CN111984172 A CN 111984172A
- Authority
- CN
- China
- Prior art keywords
- model object
- furniture
- target
- user operation
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2008—Assembling, disassembling
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种家具移动方法及装置,通过预设终端的图像用户界面展示的内容至少包括目标功能空间,目标功能空间为根据目标房屋对象建立的三维房屋空间中的具有目标属性的区域,目标功能空间中包括第一家具模型对象,该方法包括:响应对第一家具模型对象的第一用户操作,获取第一用户操作在图像用户界面的移动距离,第一用户操作对应于在目标功能空间的预设基准面的移动,预设基准面用于承载第一家具模型对象;基于坐标映射和线面交点计算,确定移动距离在预设基准面对应的空间向量;根据空间向量控制第一家具模型对象在预设基准面移动。本发明可以从用户体验角度出发,使在线家装家具移动更贴近现实生活中家具的实际移动,保证用户的直观感受。
Description
技术领域
本发明涉及家居技术领域,特别是涉及一种家具移动方法及装置。
背景技术
在线家装设计中,为了获取用户满意的装修方案,需要在三维房屋空间中展示选中家具在不同位置处的摆放效果,此时需要不断变更选中家具的位置,进而便于呈现不同的装修效果。在对选中家具进行移动操作时,需要获取用户在用户界面上执行操作时所对应的二维移动量,将二维的变化映射到三维的变化上,实现用二维控制三维,但此种方式不符合用户直观感受,会给用户带来较差的使用体验。
发明内容
本发明实施例是提供一种家具移动方法,以解决现有技术中对家具进行移动操作时不符合用户直观感受,给用户带来较差的使用体验的问题。
相应的,本发明实施例还提供了一种家具移动装置,用以保证上述方法的实现及应用。
为了解决上述问题,本发明实施例公开了一种家具移动方法方法,通过预设终端的图像用户界面展示的内容至少包括目标功能空间,所述目标功能空间为根据目标房屋对象建立的三维房屋空间中的具有目标属性的区域,所述目标功能空间中包括第一家具模型对象,所述方法包括:
响应作用于所述第一家具模型对象的第一用户操作,获取所述第一用户操作在所述图像用户界面的移动距离,所述第一用户操作对应于在所述目标功能空间的预设基准面的移动,所述预设基准面用于承载所述第一家具模型对象;
基于坐标映射和线面交点计算,确定所述移动距离在所述预设基准面对应的空间向量;
根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动。
本发明实施例还公开了一种家具移动装置,通过预设终端的图像用户界面展示的内容至少包括目标功能空间,所述目标功能空间为根据目标房屋对象建立的三维房屋空间中的具有目标属性的区域,所述目标功能空间中包括第一家具模型对象,所述装置包括:
获取模块,用于响应作用于所述第一家具模型对象的第一用户操作,获取所述第一用户操作在所述图像用户界面的移动距离,所述第一用户操作对应于在所述目标功能空间的预设基准面的移动,所述预设基准面用于承载所述第一家具模型对象;
第一确定模块,用于基于坐标映射和线面交点计算,确定所述移动距离在所述预设基准面对应的空间向量;
移动模块,用于根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动。
本发明实施例还公开了一种电子设备,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述电子设备执行如上所述的方法。
本发明实施例还公开了一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行如上所述的方法。
本发明实施例包括以下优点:
在本发明实施例中,通过预设终端的图像用户界面展示目标功能空间,根据作用于目标功能空间中的第一家具模型对象的第一用户操作,获取二维图像用户界面内的移动距离,基于坐标映射和线面交点计算,确定移动距离在预设基准面内对应的空间向量,以实现用图像用户界面内的两个维度去控制空间家具模型对象的两个维度,使得第一家具模型对象在预设基准面移动,可以从用户体验角度出发,使在线家装家具移动更贴近现实生活中家具的实际移动,保证用户的直观感受,对用户更加友好。
附图说明
图1是本发明的一种家具移动方法的步骤流程图;
图2是本发明对家具模型对象移动的示意图;
图3是本发明的选中家具模型对象并执行用户操作的流程示意图;
图4是本发明的基于线面交点计算空间向量的示意图;
图5是本发明的一种家具移动装置实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明实施例中的家具移动方法可以运行于终端设备或者是服务器。其中,终端设备可以为本地终端设备。当家具移动方法运行于为服务器时,可以为云展示。
在一可选的实施方式中,云展示是指以云计算为基础的信息展示方式。在云展示的运行模式下,家具移动方法的储存与运行是在云展示服务器上完成的,云展示客户端的作用为数据的接收、发送以及功能空间画面的呈现,举例而言,云展示客户端可以是靠近用户侧的具有数据传输功能的显示设备,如,移动终端、电视机、计算机、掌上电脑等;但是进行信息数据处理的终端设备为云端的云展示服务器。在进行家具移动时,用户操作云展示客户端向云展示服务器发送操作指令,云展示服务器根据操作指令展示相关的房屋空间、家具模型对象以及家具模型对象的移动,将上述数据进行编码压缩,通过网络返回云展示客户端,最后,通过云展示客户端进行解码并输出三维房屋空间、家具模型对象以及家具模型对象的移动。
在另一可选的实施方式中,终端设备可以为本地终端设备。本地终端设备存储有应用程序并用于呈现应用界面。本地终端设备用于通过图形用户界面与用户进行交互,即,常规的通过电子设备下载安装应用程序并运行。该本地终端设备将图形用户界面提供给用户的方式可以包括多种,例如,可以渲染显示在终端的显示屏上,或者,通过全息投影提供给用户。举例而言,本地终端设备可以包括显示屏和处理器,该显示屏用于呈现图形用户界面,该图形用户界面包括应用画面,该处理器用于运行该应用程序、生成图形用户界面以及控制图形用户界面在显示屏上的显示。
其中,当预设终端为本地终端设备时,其可以是台式电脑、笔记本电脑、平板电脑以及移动终端。预设终端上可以运行应用程序,例如生活类应用程序、音频应用程序以及游戏应用程序等。其中,生活类应用程序又可以根据类型不同进一步进行划分,例如租售房应用程序、家装应用程序、家政服务应用程序、休闲娱乐应用程序等。本申请实施例以在移动终端上运行生活类应用程序为例进行示例性说明,可以理解的是,本发明不局限于此。
参照图1,示出了本发明的一种家具移动方法的步骤流程图,通过预设终端的图像用户界面展示的内容至少包括目标功能空间,其中,预设终端可以是前述提到的本地终端设备,也可以是前述提到的云展示客户端,下述以本地终端设备(尤其是移动终端)为例进行示例性说明。目标功能空间为根据目标房屋对象建立的三维房屋空间中的具有目标属性的区域,且目标功能空间中包括第一家具模型对象,该方法包括以下步骤:
步骤101、响应作用于所述第一家具模型对象的第一用户操作,获取所述第一用户操作在所述图像用户界面的移动距离,所述第一用户操作对应于在所述目标功能空间的预设基准面的移动,所述预设基准面用于承载所述第一家具模型对象。
作为一种示例,预设终端需要获取目标房屋对象的数据信息并对其进行处理建立三维房屋空间,具体为,可以获取用户输入的二维户型图,接着进行AI(ArtificialIntelligence,人工智能)对二维户型图进行图像识别、OCR(Optical CharacterRecognition,光学字符识别)对二维户型图中的文字进行识别,以及分房间算法对二维户型图中的区域进行划分等等,得到目标房屋对象的各个不同的功能空间,然后根据AI识别所得到的房屋数据,进行房屋建模,获得与二维户型图对应的三维房屋空间。
例如,二维户型图可以包括VR(Virtual Reality,虚拟现实技术)全景数据、手绘户型图数据以及二维平面户型图等等,则终端可以通过图像识别得到目标房屋对象的门、窗以及墙体等,通过OCR识别目标房屋对象各个不同功能空间的名称、面积以及标尺等,通过分房间算法可以对客餐厅进行分割,例如可以对客餐厅进行分割,得到客厅、厨房、玄关以及过道等等,实现通过AI识别技术将二维户型图,转换为三维房屋空间。
通过预设终端的图像用户界面展示的内容至少包括目标功能空间,目标功能空间为三维房屋空间中的某个功能空间,图像用户界面展示的目标功能空间为具有三维效果的图像。具体可以为,通过一相机模型对象(虚拟相机)对三维房屋空间中的目标功能空间进行拍摄,获取目标功能空间的至少部分画面信息,这里的目标功能空间为具有目标属性的区域,如具有会客属性的客厅区域、具有用餐属性的餐厅区域等。在目标功能空间中包括有第一家具模型对象。
在图像用户界面展示目标功能空间之后,可以接收用户在二维的图像用户界面上所执行、作用于第一家具模型对象的第一用户操作,根据第一用户操作确定图像用户界面内的移动距离。其中用户对第一家具模型对象所执行第一用户操作,对应于在目标功能空间的预设基准面内的移动,预设基准面为承载第一家具模型对象的平面,如第一家具模型对象为书桌模型对象,书桌模型对象位于地面对象上,则地面即为书桌模型对象的预设基准面,或者第一家具模型对象贴附于墙面对象上的挂件模型对象,则墙面即为挂件模型对象的预设基准面。
步骤102、基于坐标映射和线面交点计算,确定所述移动距离在所述预设基准面对应的空间向量。
在获取第一用户操作在图像用户界面内的移动距离之后,可以基于坐标映射和线面交点方式进行计算,确定移动距离在预设基准面内对应的空间向量,这样可以把在图像用户界面内的移动转化为在预设基准面内的移动,进而实现用图像用户界面内的两个维度去控制空间家具模型对象的两个维度。
其中,本发明中的计算是针对同一预设基准面执行计算,对于切换基准面的过程,这里不做阐述,如将书桌模型对象上的置物架模型对象移动至地面对象时,首先以书桌模型对象对应的承载平面作为预设基准面进行计算,在发生基准面切换时需采用特定算法计算(不做具体阐述),在置物架模型对象移动至地面对象后,以地面对象对应的承载平面作为预设基准面进行计算。因此本发明提供的计算方法可适用于在同一基准面内移动的情况。
针对不同的第一家具模型对象,由于其所在的位置不同,则对应的基准面有所不同,相应的,空间向量会有所区别。本实施例中以墙体对象的竖直方向为Y轴,地面对象对应于XOZ平面为例,对不同的空间向量进行介绍。
例如,目标功能空间为餐厅空间,餐厅空间内包括餐桌模型对象,根据作用于餐桌模型对象的第一用户操作,获取在图像用户界面内对应的移动距离。然后根据在二维空间内的移动距离,获取在三维空间的预设基准面(地面对象)内对应的空间向量。餐桌模型对象是在地面对象(XOZ平面)上移动,在Y方向的偏移为零,则此时移动距离在预设基准面内对应的空间向量中,Y元素为0。或者,目标功能空间为阁楼空间,阁楼空间内包括倾斜的墙体对象,该倾斜墙体对象上可以悬挂一置物架模型对象,根据作用于置物架模型对象的第一用户操作,获取在图像用户界面内对应的移动距离。然后根据在二维空间内的移动距离,获取在三维空间的预设基准面(倾斜墙体对象)内对应的空间向量。置物架模型对象是在倾斜的墙体对象上移动,在XYZ方向上均可以有偏移量,则此时移动距离在预设基准面内对应的空间向量中各元素均可不为0。
步骤103、根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动。
在获取移动距离在预设基准面内对应的空间向量之后,可以根据空间向量控制第一家具模型对象在预设基准面移动,以实现用图像用户界面内的两个维度去控制空间家具模型对象的两个维度,保证从用户体验角度出发,使在线家装家具移动更贴近现实生活中家具的实际移动,对用户更加友好。
下面以一具体实例对家具模型对象移动的过程进行阐述,如图2所示,在图像用户界面显示客厅空间,客厅空间中包括沙发模型对象和茶几模型对象,可以根据作用于茶几模型对象向远离沙发模型对象的第一用户操作,获取第一用户操作在图像用户界面上对应的移动距离,基于坐标映射和线面交点计算,确定移动距离在客厅空间的地面对象上对应的空间向量,并根据空间向量控制茶几模型对象向远离沙发模型对象的方向移动。
在本发明实施例中,通过预设终端的图像用户界面展示目标功能空间,根据作用于目标功能空间中的第一家具模型对象的第一用户操作,获取二维图像用户界面内的移动距离,基于坐标映射和线面交点计算,确定移动距离在预设基准面内对应的空间向量,以实现用图像用户界面内的两个维度去控制空间家具模型对象的两个维度,使得第一家具模型对象在预设基准面移动,可以从用户体验角度出发,使在线家装家具移动更贴近现实生活中家具的实际移动,保证用户的直观感受,对用户更加友好。
在本发明的一种可选实施例中,在获取作用于第一家具模型对象的第一用户操作之前,还包括:
响应作用于所述图像用户界面的第二用户操作,确定所述第二用户操作是否为点击操作;
在所述第二用户操作为点击操作的情况下,检测所述第二用户操作是否作用于所述第一家具模型对象上;
在所述第二用户操作作用于所述第一家具模型对象上时,确定所述第一家具模型对象为选中状态。
根据用户作用于图像用户界面的第二用户操作,确定第二用户操作是否为点击操作,在确定第二用户操作为点击操作时,可以检测第二用户操作是否作用于第一家具模型对象上。具体可以为,检测第二用户操作是否作用于家具模型对象上,若第二用户操作作用于图像用户界面的空白处,这个时候如果有选中的家具模型对象,那么就需要取消家具模型对象的选中。如果,第二用户操作作用于家具模型对象上,需要检测是否作用于处于选中状态的家具模型对象上,若是,则将该家具模型对象确定为第一家具模型对象,若第二用户操作作用于新家具模型对象上,则需要更改选中家具模型对象,将新家具模型对象确定为第一家具模型对象。此时,可以确定第一家具模型对象为选中状态。
其中,在检测第二用户操作的作用对象时,可以获取第二用户操作在图像用户界面上的投影,基于投影坐标来确定第二用户操作的作用对象。例如,通过鼠标对计算机显示界面执行点击操作,获取鼠标在计算机显示界面上对应的投影坐标,基于投影坐标来确定作用于哪个模型对象上。
上述实施过程,通过检测第二用户操作的操作类型,可以确定点击操作,并根据点击操作的作用对象选定第一家具模型对象,进而可以保证后续过程的执行。
其中,所述响应作用于所述图像用户界面的第二用户操作,确定所述第二用户操作是否为点击操作,包括:
响应作用于所述图像用户界面的小于预设时长且小于预设偏移量的所述第二用户操作,确定所述第二用户操作为点击操作。
在确定第二用户操作是否为点击操作时,可以检测第二用户操作作用于图像用户界面的时长以及在图像用户界面内的偏移量,这里的偏移量包括在图像用户界面的X方向和Y方向的偏移量。若第二用户操作作用于图像用户界面的时长小于预设时长,且在图像用户界面内的X方向的偏移量小于第一距离阈值、在Y方向的偏移量小于第二距离阈值,则可以确定第二用户操作为点击操作。
例如,通过鼠标对计算机的显示界面执行操作而言,获取用户对鼠标执行操作时mousedown(仅需要按键被按下,而不需要松开即可发生)到mouseup(松开按键)的时间差、鼠标在X方向上的偏移和鼠标在Y方向上的偏移。当这三个指标的差值都小于我们预定义的阈值的时候,就可以简单地判定为一次点击事件。
通过检测第二用户操作的时长以及偏移量,可以确定第二用户操作的操作类型,在第二用户操作为点击操作的情况下,可以选中第一家具模型对象。
在确定第一家具模型对象为选中状态后,所述响应作用于所述第一家具模型对象的第一用户操作,获取所述第一用户操作在所述图像用户界面的移动距离,包括:
响应作用于处于选中状态的所述第一家具模型对象的所述第一用户操作,获取所述第一用户操作在所述图像用户界面对应的移动距离。
第一用户操作的作用对象是处于选中状态的第一家具模型对象,触发第一家具模型对象移动的条件是对处于选中状态的第一家具模型对象执行第一用户操作。例如,在计算机的显示界面通过鼠标选中第一家具模型对象之后,可以接收用户通过鼠标对处于选中状态的第一家具模型对象所执行的移动操作,获取在计算机的显示界面上所对应的移动距离。
上述过程,通过设置触发条件,可以保证处于选中状态的第一家具模型对象根据用户的操作发生移动,避免出现由于误操作移动处于未选中的家具模型对象的情况。
下面以一具体实例对处于选中状态的第一家具模型执行第一用户操作的流程进行简要介绍,如图3所示,包括:
步骤301、获取用户对鼠标执行操作时mousedown(仅需要按键被按下,而不需要松开即可发生)到mouseup(松开按键)的时间差、鼠标在X方向上的第一偏移量和鼠标在Y方向上的第二偏移量。
步骤302、检测时间差是否小于预设时长、第一偏移量是否小于第一距离阈值、第二偏移量是否小于第二距离阈值。若时间差小于预设时长、第一偏移量小于第一距离阈值、第二偏移量小于第二距离阈值,确定鼠标事件为点击事件,然后执行步骤303,否则结束流程。
步骤303、检测鼠标是否选中家具模型对象,若是则执行步骤304,否则执行步骤305。
步骤304、继续检测鼠标所对应的家具模型对象是否为已选中的家具模型对象,若是,则执行步骤306,否则执行步骤307。
步骤305、若有选中的家具模型对象则取消家具模型对象的选中状态,并结束流程。
步骤306、选中的家具模型对象保持不变,并将该家具模型对象确定为第一家具模型对象,然后执行步骤308。
步骤307、将鼠标所对应的家具模型对象确定为更新后的家具模型对象,并将更新后的家具模型对象确定为第一家具模型对象,然后执行步骤308。
步骤308、接收对处于选中状态的第一家具模型对象的第一用户操作。
上述为确定第一家具模型对象,并对其执行第一用户操作的过程,可以基于第二用户操作的时长以及偏移量,确定第二用户操作的操作类型,进而选中第一家具模型对象,保证后续过程的执行。
在本发明的一种可选实施例中,所述基于坐标映射和线面交点计算,确定所述移动距离在所述预设基准面内对应的空间向量,包括:
基于坐标映射获取所述移动距离的起点和终点在目标投影面上对应的第一坐标点和第二坐标点,所述目标投影面对应的坐标系由Three.js定义,所述目标投影面与相机模型对象相对,所述图像用户界面展示的所述目标功能空间通过所述相机模型对象的拍摄视角确定,所述预设基准面位于所述相机模型对象与所述目标投影面之间;
基于Three.js提供的应用程序编程接口API,确定所述相机模型对象与所述第一坐标点和所述第二坐标点的连线穿设所述预设基准面时所对应的第一交点和第二交点;
根据所述第一交点和所述第二交点的坐标信息确定所述空间向量。
在基于坐标映射和线面交点,确定移动距离在预设基准面内对应的空间向量时,需要首先提取移动距离的起点和终点,然后基于坐标映射获取起点在目标投影面上对应的第一坐标点,以及终点在目标投影面上对应的第二坐标点。目标投影面为与相机模型对象相对的虚拟投影面,相机模型对象与在目标投影面上的投影点之间的连线与目标投影面垂直。目标投影面对应的坐标系由Three.js定义,Three.js定义的坐标系在X方向和Y方向的长度均为2,目标投影面的四个顶点坐标分别为(-1,1),(1,1),(-1,-1),(1,-1)。
其中,相机模型对象为虚拟对象,图像用户界面展示的目标功能空间通过相机模型对象的拍摄视角确定,具体可以为:在构建三维房屋空间之后,确定相机模型对象的拍摄视角,将相机模型对象的拍摄视角对应的空间确定为目标功能空间。随着相机模型对象的拍摄视角的变化,可以获取三维房屋空间的不同功能空间,每一个拍摄视角可对应于一帧图像,在图像用户界面可以展示一帧图像,并可以实现不同帧图像之间的切换,目标功能空间对应于其中的一帧图像。其中,相机模型对象可以旋转,此时可以连续拍摄获取三维房屋空间的整体房源画面,本发明实施例中针对的是相机模型对象在某一时刻对应的目标功能空间的房源画面,即对应为静态画面,此时便于接收用户在图像用户界面上的操作。
预设基准面为第一家具模型对象的承载平面,且预设基准面位于相机模型对象与目标投影面之间,在相机模型对象的拍摄视角确定后,可以确定包括预设基准面以及第一家具模型对象的目标功能空间。例如第一家具模型对象为墙面对象上的置物架模型对象,预设基准面为墙面对象,则可以在相机模型对象的拍摄视角确定后,确定包括置物架模型对象和墙面对象的目标功能空间。
在确定目标投影面上对应的第一坐标点和第二坐标点之后,可以基于Three.js提供的API(Application Programming Interface,应用程序编程接口),确定相机模型对象发出的穿设第一坐标点的第一射线、穿设第二坐标点的第二射线,并确定第一射线穿设预设基准面时对应的第一交点、第二射线穿设预设基准面时对应的第二交点。
在确定第一交点和第二交点之后,由于第一交点和第二交点为预设基准面上的点,即为三维空间中的某一点,可以获取第一交点对应的空间坐标和第二交点对应的空间坐标,进而基于第一交点和第二交点确定空间向量。
其中,所述基于坐标映射获取所述移动距离的起点和终点在目标投影面上对应的第一坐标点和第二坐标点,包括:
获取所述移动距离的起点所对应的像素起点坐标和所述移动距离的终点所对应的像素终点坐标;
根据所述预设终端的屏幕分辨率和所述目标投影面对应的坐标系确定映射关系;
根据所述映射关系、所述像素起点坐标和所述像素终点坐标,在所述目标投影面确定所述第一坐标点和所述第二坐标点。
在基于坐标映射方式,获取移动距离的起点在目标投影面上对应的第一坐标点、移动距离的终点在目标投影面上对应的第二坐标点时,首先需要获取移动距离的起点所对应的像素起点坐标,以及移动距离的终点所对应的像素终点坐标。其中预设终端的显示界面的画布宽度与画布高度的乘积即为预设终端的屏幕分辨率,如屏幕分辨率为800*600,则显示界面的画布宽度为800,显示界面的画布高度为600。显示界面上的每个像素点对应于一个像素坐标,因此可以根据移动距离的起点和终点,分别确定像素起点坐标和像素终点坐标。
根据预设终端的屏幕分辨率和目标投影面对应的坐标系,可以确定映射关系,在确定映射关系之后,可以根据映射关系和像素起点坐标,在目标投影面确定第一坐标点,根据映射关系和像素终点坐标,在目标投影面确定第二坐标点。
其中,映射关系为:目标投影面上的X坐标=(像素起点X坐标/画布宽度)*2-1,目标投影面上的Y坐标=-(像素起点Y坐标/画布高度)*2+1。由于移动距离的起点所对应的像素起点坐标和移动距离的终点所对应的像素终点坐标已知,可以根据该映射关系和像素起点坐标获取目标投影面上对应的第一坐标,进而确定第一坐标点,还可以根据该映射关系和像素终点坐标获取目标投影面上对应的第二坐标,进而确定第二坐标点。
下面以一具体实例对上述过程进行阐述,置物架模型对象设置于竖直墙面对象上,在墙面对象的法向量上不会有位移,因此可以去掉法向量上的维度,墙面对象为基准面。那么下面的问题就是把在图像用户界面上的移动映射到基准面上的移动。如图4所示,我们需要知道的就是三维空间向量p1p2。其中,点p1是射线p0p3与基准面的交点,点p2是射线p0p4与基准面的交点。
首先计算目标投影面上对应的第一坐标点和第二坐标点,其中,第一坐标点的X坐标=(像素起点X坐标/画布宽度)*2-1,第一坐标点的Y坐标=-(像素起点Y坐标/画布高度)*2+1,第二坐标点的X坐标=(像素终点X坐标/画布宽度)*2-1,第二坐标点的Y坐标=-(像素终点Y坐标/画布高度)*2+1。在目标投影面上确定第一坐标点和第二坐标点之后,可以使用THREE.Raycaster的set From Camera(coords:Vector2,camera:Camera)计算两条射线p0p3以及p0p4。接下来使用Raycaster的intersect Object计算射线和基准面的交点,分别求出点p1和p2的坐标后,p2的坐标减去p1的坐标,即可以获取应用到置物架模型对象上的空间向量。
上述实施过程,可以基于坐标映射获取目标投影面上对应的坐标点,并基于线面交点确定预设基准面上对应的空间向量,可以实现用图像用户界面内的两个维度去控制空间家具模型对象的两个维度,使得第一家具模型对象在预设基准面移动,可以从用户体验角度出发,使在线家装家具移动更贴近现实生活中家具的实际移动,保证用户的直观感受,对用户更加友好。
在本发明的一种可选实施例中,所述预设终端存储有依附关系列表,所述根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动之前,该方法还包括:根据所述依附关系列表检测是否存在依附于所述第一家具模型对象的第一目标模型对象。
预设终端存储有依附关系列表,其中,依附关系列表中包括有三维房屋空间内各模型对象之间的依附关系,在获取空间向量之后,根据空间向量控制第一家具模型对象在预设基准面移动之前,还可以在依附关系列表中查找是否存在依附于第一家具模型对象的第一目标模型对象。
其中,在存在所述第一目标模型对象的情况下,所述根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动,包括:
根据所述空间向量控制所述第一目标模型对象和所述第一家具模型对象,在所述预设基准面同步移动。
在根据依附关系列表确定存在依附于第一家具模型对象的第一目标模型对象时,可以在根据空间向量控制第一家具模型对象在预设基准面内移动的同时,控制第一目标模型对象同步移动,以实现第一家具模型对象和第一目标模型对象的组合移动,此时可以将第一家具模型对象和第一目标模型对象看作一个整体。其中,第一目标模型对象可以为家具模型对象、挂件模型对象或者装饰模型对象等。
例如,可以在选中一模型对象之后,针对该模型对象添加一个属性记录该模型对象对应的依附家具模型对象,同时给依附家具模型对象添加一个属性记录依附本家具模型对象的模型对象列表。当移动家具模型对象时,除了给家具模型对象本身应用位置偏移之外,还需要递归的给依附于本家具模型对象的模型对象应用相同的位置偏移。这样就可以实现组合移动了。
进一步的,可以通过一具体实例进行介绍,书桌模型对象上摆放一花瓶模型对象,二者形成依附关系,在移动书桌模型对象时,可以将相应的位置偏移递归至花瓶模型对象,使得花瓶模型对象与书桌模型对象整体移动。
通过建立依附关系,形成依附关系列表,可以实现具有依附关系的模型对象的组合移动,保证与实际移动情况的匹配。
可选的,在存在所述第一目标模型对象的情况下,该方法还包括:
响应作用于所述第一目标模型对象的第三用户操作,检测所述第一目标模型对象是否脱离所述第一家具模型对象;
在所述第一目标模型对象脱离所述第一家具模型对象的情况下,确定所述第一目标模型对象所依附的第二目标模型对象。
在存在依附于第一家具模型对象的第一目标模型对象的情况下,还可以接收用户对第一目标模型对象所执行的第三用户操作,响应作用于第一目标模型对象的第三用户操作,可以检测第一目标模型对象是否脱离第一家具模型对象。在第一目标模型对象脱离第一家具模型对象的情况下,可以根据第三用户操作,确定第一目标模型对象所依附的第二目标模型对象,实现更换第一目标模型对象的依附对象。在更换依附对象之后,可以更新依附关系列表,解除第一家具模型对象与第一目标模型对象的依附关系,并形成第一目标模型对象与第二目标模型对象的依附关系。
其中,检测第一目标模型对象是否脱离第一家具模型对象时,可以获取第三用户操作在图像用户界面内的投影,基于投影检测第一目标模型对象是否脱离第一家具模型对象。且在接收到第三用户操作时,可以基于坐标映射和线面交点计算,确定对应的空间向量,进而控制第一目标模型对象移动。此时的移动为在同一基准面内的移动,在发生基准面的变更时,需要采用特定算法计算过渡过程,然后在针对变更后的基准面,继续基于坐标映射和线面交点计算,确定对应的空间向量,进而控制第一目标模型对象移动。
例如,书桌模型对象上依附有花瓶模型对象,在接收到对花瓶模型对象的第三用户操作时,可以首先将书桌模型对象对应的承载面作为基准面,基于坐标映射和线面交点计算,确定第一移动距离(在图像用户界面的书桌模型对象上的移动距离)对应的空间向量,然后控制花瓶模型对象在书桌模型对象上移动。在将花瓶模型对象由书桌模型对象移动至地面对象时,可以采用特定算法计算。在花瓶模型对象到达地面对象之后,可以继续基于坐标映射和线面交点计算,确定第二移动距离(在图像用户界面的地面对象上的移动距离)对应的空间向量,控制花瓶模型对象在地面对象上移动。在将花瓶模型对象由地面对象移动至茶几模型对象时,可以采用特定算法计算。在花瓶模型对象到达茶几模型对象之后,可以继续基于坐标映射和线面交点计算,确定第三移动距离(在图像用户界面的茶几模型对象上的移动距离)对应的空间向量,控制花瓶模型对象在茶几模型对象上移动。
上述实施过程,可以基于第三用户操作,实现依附对象的更换,保证与实际移动情况的匹配。
本发明实施例,通过预设终端的图像用户界面展示目标功能空间,根据作用于目标功能空间中的第一家具模型对象的第一用户操作,获取二维图像用户界面内的移动距离,基于坐标映射和线面交点计算,确定移动距离在预设基准面内对应的空间向量,以实现用图像用户界面内的两个维度去控制空间家具模型对象的两个维度,使得第一家具模型对象在预设基准面移动,可以从用户体验角度出发,使在线家装家具移动更贴近现实生活中家具的实际移动,保证用户的直观感受,对用户更加友好。
进一步的,还可以实现模型对象的组合移动以及依附对象的变更,保证与实际移动情况的匹配。
参照图5,示出了本发明的一种装置实施例的结构框图,通过预设终端的图像用户界面展示的内容至少包括目标功能空间,所述目标功能空间为根据目标房屋对象建立的三维房屋空间中的具有目标属性的区域,所述目标功能空间中包括第一家具模型对象,所述装置包括:
获取模块501,用于响应作用于所述第一家具模型对象的第一用户操作,获取所述第一用户操作在所述图像用户界面的移动距离,所述第一用户操作对应于在所述目标功能空间的预设基准面的移动,所述预设基准面用于承载所述第一家具模型对象;
第一确定模块502,用于基于坐标映射和线面交点计算,确定所述移动距离在所述预设基准面对应的空间向量;
移动模块503,用于根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动。
可选的,该装置还包括:
第二确定模块,用于响应作用于所述图像用户界面的第二用户操作,确定所述第二用户操作是否为点击操作;
第一检测模块,用于在所述第二用户操作为点击操作的情况下,检测所述第二用户操作是否作用于所述第一家具模型对象上;
第三确定模块,用于在所述第二用户操作作用于所述第一家具模型对象上时,确定所述第一家具模型对象为选中状态。
可选的,所述第二确定模块进一步用于:
响应作用于所述图像用户界面的小于预设时长且小于预设偏移量的所述第二用户操作,确定所述第二用户操作为点击操作。
可选的,所述获取模块进一步用于:
响应作用于处于选中状态的所述第一家具模型对象的所述第一用户操作,获取所述第一用户操作在所述图像用户界面对应的移动距离。
可选的,所述第一确定模块包括:
获取子模块,用于基于坐标映射获取所述移动距离的起点和终点在目标投影面上对应的第一坐标点和第二坐标点,所述目标投影面对应的坐标系由Three.js定义,所述目标投影面与相机模型对象相对,所述图像用户界面展示的所述目标功能空间通过所述相机模型对象的拍摄视角确定,所述预设基准面位于所述相机模型对象与所述目标投影面之间;
第一确定子模块,用于基于Three.js提供的应用程序编程接口API,确定所述相机模型对象与所述第一坐标点和所述第二坐标点的连线穿设所述预设基准面时所对应的第一交点和第二交点;
第二确定子模块,用于根据所述第一交点和所述第二交点的坐标信息确定所述空间向量。
可选的,所述获取子模块进一步用于:
获取所述移动距离的起点所对应的像素起点坐标和所述移动距离的终点所对应的像素终点坐标;
根据所述预设终端的屏幕分辨率和所述目标投影面对应的坐标系确定映射关系;
根据所述映射关系、所述像素起点坐标和所述像素终点坐标,在所述目标投影面确定所述第一坐标点和所述第二坐标点。
可选的,所述预设终端存储有依附关系列表,该装置还包括:
第二检测模块,用于在所述移动模块根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动之前,根据所述依附关系列表检测是否存在依附于所述第一家具模型对象的第一目标模型对象。
可选的,在存在所述第一目标模型对象的情况下,所述移动模块进一步用于:
根据所述空间向量控制所述第一目标模型对象和所述第一家具模型对象,在所述预设基准面同步移动。
可选的,在存在所述第一目标模型对象的情况下,该装置还包括:
第三检测模块,用于响应作用于所述第一目标模型对象的第三用户操作,检测所述第一目标模型对象是否脱离所述第一家具模型对象;
第四确定模块,用于在所述第一目标模型对象脱离所述第一家具模型对象的情况下,确定所述第一目标模型对象所依附的第二目标模型对象。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明实施例还提供了一种电子设备,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述电子设备执行本发明实施例所述的方法。
本发明实施例还提供了一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行本发明实施例所述的方法。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种家具移动方法及装置,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (12)
1.一种家具移动方法,其特征在于,通过预设终端的图像用户界面展示的内容至少包括目标功能空间,所述目标功能空间为根据目标房屋对象建立的三维房屋空间中的具有目标属性的区域,所述目标功能空间中包括第一家具模型对象,所述方法包括:
响应作用于所述第一家具模型对象的第一用户操作,获取所述第一用户操作在所述图像用户界面的移动距离,所述第一用户操作对应于在所述目标功能空间的预设基准面的移动,所述预设基准面用于承载所述第一家具模型对象;
基于坐标映射和线面交点计算,确定所述移动距离在所述预设基准面对应的空间向量;
根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动。
2.根据权利要求1所述的家具移动方法,其特征在于,还包括:
响应作用于所述图像用户界面的第二用户操作,确定所述第二用户操作是否为点击操作;
在所述第二用户操作为点击操作的情况下,检测所述第二用户操作是否作用于所述第一家具模型对象上;
在所述第二用户操作作用于所述第一家具模型对象上时,确定所述第一家具模型对象为选中状态。
3.根据权利要求2所述的家具移动方法,其特征在于,所述响应作用于所述图像用户界面的第二用户操作,确定所述第二用户操作是否为点击操作,包括:
响应作用于所述图像用户界面的小于预设时长且小于预设偏移量的所述第二用户操作,确定所述第二用户操作为点击操作。
4.根据权利要求2所述的家具移动方法,其特征在于,所述响应作用于所述第一家具模型对象的第一用户操作,获取所述第一用户操作在所述图像用户界面的移动距离,包括:
响应作用于处于选中状态的所述第一家具模型对象的所述第一用户操作,获取所述第一用户操作在所述图像用户界面对应的移动距离。
5.根据权利要求1所述的家具移动方法,其特征在于,所述基于坐标映射和线面交点计算,确定所述移动距离在所述预设基准面内对应的空间向量,包括:
基于坐标映射获取所述移动距离的起点和终点在目标投影面上对应的第一坐标点和第二坐标点,所述目标投影面对应的坐标系由Three.js定义,所述目标投影面与相机模型对象相对,所述图像用户界面展示的所述目标功能空间通过所述相机模型对象的拍摄视角确定,所述预设基准面位于所述相机模型对象与所述目标投影面之间;
基于Three.js提供的应用程序编程接口API,确定所述相机模型对象与所述第一坐标点和所述第二坐标点的连线穿设所述预设基准面时所对应的第一交点和第二交点;
根据所述第一交点和所述第二交点的坐标信息确定所述空间向量。
6.根据权利要求5所述的家具移动方法,其特征在于,所述基于坐标映射获取所述移动距离的起点和终点在目标投影面上对应的第一坐标点和第二坐标点,包括:
获取所述移动距离的起点所对应的像素起点坐标和所述移动距离的终点所对应的像素终点坐标;
根据所述预设终端的屏幕分辨率和所述目标投影面对应的坐标系确定映射关系;
根据所述映射关系、所述像素起点坐标和所述像素终点坐标,在所述目标投影面确定所述第一坐标点和所述第二坐标点。
7.根据权利要求1所述的家具移动方法,其特征在于,所述预设终端存储有依附关系列表,所述根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动之前,该方法还包括:
根据所述依附关系列表检测是否存在依附于所述第一家具模型对象的第一目标模型对象。
8.根据权利要求7所述的家具移动方法,其特征在于,在存在所述第一目标模型对象的情况下,所述根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动,包括:
根据所述空间向量控制所述第一目标模型对象和所述第一家具模型对象,在所述预设基准面同步移动。
9.根据权利要求7所述的家具移动方法,其特征在于,在存在所述第一目标模型对象的情况下,还包括:
响应作用于所述第一目标模型对象的第三用户操作,检测所述第一目标模型对象是否脱离所述第一家具模型对象;
在所述第一目标模型对象脱离所述第一家具模型对象的情况下,确定所述第一目标模型对象所依附的第二目标模型对象。
10.一种家具移动装置,其特征在于,通过预设终端的图像用户界面展示的内容至少包括目标功能空间,所述目标功能空间为根据目标房屋对象建立的三维房屋空间中的具有目标属性的区域,所述目标功能空间中包括第一家具模型对象,所述装置包括:
获取模块,用于响应作用于所述第一家具模型对象的第一用户操作,获取所述第一用户操作在所述图像用户界面的移动距离,所述第一用户操作对应于在所述目标功能空间的预设基准面的移动,所述预设基准面用于承载所述第一家具模型对象;
第一确定模块,用于基于坐标映射和线面交点计算,确定所述移动距离在所述预设基准面对应的空间向量;
移动模块,用于根据所述空间向量控制所述第一家具模型对象在所述预设基准面移动。
11.一种电子设备,其特征在于,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述电子设备执行如权利要求1-9任一项所述的方法。
12.一个或多个机器可读介质,其特征在于,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行如权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010682657.6A CN111984172A (zh) | 2020-07-15 | 2020-07-15 | 一种家具移动方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010682657.6A CN111984172A (zh) | 2020-07-15 | 2020-07-15 | 一种家具移动方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111984172A true CN111984172A (zh) | 2020-11-24 |
Family
ID=73439366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010682657.6A Pending CN111984172A (zh) | 2020-07-15 | 2020-07-15 | 一种家具移动方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111984172A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109189302A (zh) * | 2018-08-29 | 2019-01-11 | 百度在线网络技术(北京)有限公司 | Ar虚拟模型的控制方法及装置 |
CN110490916A (zh) * | 2019-04-12 | 2019-11-22 | 北京城市网邻信息技术有限公司 | 三维对象建模方法与设备、图像处理装置及介质 |
US20190362559A1 (en) * | 2018-06-19 | 2019-11-28 | Guangdong Virtual Reality Technology Co., Ltd. | Augmented reality method for displaying virtual object and terminal device therefor |
CN111028333A (zh) * | 2019-11-25 | 2020-04-17 | 贝壳技术有限公司 | 物品摆放效果图像生成方法和装置 |
CN111223177A (zh) * | 2019-12-18 | 2020-06-02 | 北京城市网邻信息技术有限公司 | 三维空间的三维模型的构建方法和装置、存储介质 |
-
2020
- 2020-07-15 CN CN202010682657.6A patent/CN111984172A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190362559A1 (en) * | 2018-06-19 | 2019-11-28 | Guangdong Virtual Reality Technology Co., Ltd. | Augmented reality method for displaying virtual object and terminal device therefor |
CN109189302A (zh) * | 2018-08-29 | 2019-01-11 | 百度在线网络技术(北京)有限公司 | Ar虚拟模型的控制方法及装置 |
CN110490916A (zh) * | 2019-04-12 | 2019-11-22 | 北京城市网邻信息技术有限公司 | 三维对象建模方法与设备、图像处理装置及介质 |
CN111028333A (zh) * | 2019-11-25 | 2020-04-17 | 贝壳技术有限公司 | 物品摆放效果图像生成方法和装置 |
CN111223177A (zh) * | 2019-12-18 | 2020-06-02 | 北京城市网邻信息技术有限公司 | 三维空间的三维模型的构建方法和装置、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10755485B2 (en) | Augmented reality product preview | |
US10733801B2 (en) | Markerless image analysis for augmented reality | |
US10579134B2 (en) | Improving advertisement relevance | |
US10026229B1 (en) | Auxiliary device as augmented reality platform | |
KR101636027B1 (ko) | 실세계 객체들의 3d 모델들 및 실제 스케일 메타데이터를 캡처하고 이동시키기 위한 방법들 및 시스템들 | |
US11875464B2 (en) | Systems and methods for scene-independent augmented reality interfaces | |
CN111679742A (zh) | 基于ar的交互控制方法、装置、电子设备及存储介质 | |
CN112068754B (zh) | 一种房源的展示方法和装置 | |
KR20140081840A (ko) | 모션으로 제어되는 리스트 스크롤 방법 | |
CN111984171A (zh) | 一种生成家具移动轨迹的方法和装置 | |
CN111724231A (zh) | 一种商品信息的展示方法和装置 | |
CN112051956A (zh) | 一种房源的交互方法和装置 | |
WO2022259253A1 (en) | System and method for providing interactive multi-user parallel real and virtual 3d environments | |
Nóbrega et al. | NARI: Natural Augmented Reality Interface-Interaction Challenges for AR Applications | |
US11562538B2 (en) | Method and system for providing a user interface for a 3D environment | |
CN112651801B (zh) | 一种房源信息的展示方法和装置 | |
CN111467799A (zh) | 一种坐标转换方法、装置、电子设备和存储介质 | |
CN111984172A (zh) | 一种家具移动方法及装置 | |
CN116912387A (zh) | 纹理贴图的处理方法及装置、电子设备、存储介质 | |
CN116647657A (zh) | 响应式视频画布生成 | |
CN115624740A (zh) | 一种虚拟现实设备及其控制方法、装置、系统及互动系统 | |
Gadea et al. | Finger-based gesture control of a collaborative online workspace | |
CN107409196B (zh) | 投影远程对象的虚拟副本 | |
CN116129085B (zh) | 虚拟物体处理方法、设备、存储介质及程序产品 | |
Gudlavalleti et al. | A Comparative Study of Interior Designing Using Markerless Augmented Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201124 |