CN115115786A - 用于三维模型生成的方法、装置、设备和存储介质 - Google Patents

用于三维模型生成的方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN115115786A
CN115115786A CN202210864836.0A CN202210864836A CN115115786A CN 115115786 A CN115115786 A CN 115115786A CN 202210864836 A CN202210864836 A CN 202210864836A CN 115115786 A CN115115786 A CN 115115786A
Authority
CN
China
Prior art keywords
viewpoint
marker
scene
positional relationship
target space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210864836.0A
Other languages
English (en)
Inventor
陈琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Youzhuju Network Technology Co Ltd
Original Assignee
Beijing Youzhuju Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Youzhuju Network Technology Co Ltd filed Critical Beijing Youzhuju Network Technology Co Ltd
Priority to CN202210864836.0A priority Critical patent/CN115115786A/zh
Publication of CN115115786A publication Critical patent/CN115115786A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

根据本公开的实施例,提供了用于生成三维模型的方法、装置、设备和存储介质。该方法包括获取在目标空间的第一场景中针对目标元素的第一标记,第一场景对应于目标空间的第一视点;获取在目标空间的第二场景中针对目标元素的第二标记,第二场景对应于目标空间的第二视点,第二视点不同于第一视点以及基于在目标空间的坐标系下的第一视点与第一标记的第一位置关系和第二视点与第二标记的第二位置关系生成目标空间的三维模型。以此方式,可以简化三维模型的生成方案,避免了由于确定不同场景的视点间的关联性而造成的大量计算过程。此外可以根据用户偏好来生成建筑物中特定空间的三维模型,从而提升用户体验。

Description

用于三维模型生成的方法、装置、设备和存储介质
技术领域
本公开的示例实施例总体涉及计算机领域,特别地涉及用于三维模型生成的方法、装置、设备和计算机可读存储介质。
背景技术
目前,虚拟现实(VR)技术被广泛用于建筑以及房产等相关行业中。通过VR技术,可以向用户提供用于展示建筑物的空间布局、形状、面积等信息的三维模型,其可以作为开展多项业务的基础。例如,在房屋租售行业,期望呈现待出租或待出售的房屋的三维模型,以便使用户能够对感兴趣的房屋进行VR全景漫游。
发明内容
在本公开的第一方面,提供了一种用于三维模型生成的方法。该方法包括获取在目标空间的第一场景中针对目标元素的第一标记,第一场景对应于目标空间的第一视点以及获取在目标空间的第二场景中针对目标元素的第二标记,第二场景对应于目标空间的第二视点,第二视点不同于第一视点,该方法还包括基于在目标空间的坐标系下的第一视点与第一标记的第一位置关系和第二视点与第二标记的第二位置关系生成目标空间的三维模型。
在本公开的第二方面,提供了一种用于三维模型生成的装置。该装置包括第一获取单元,被配置为获取在目标空间的第一场景中针对目标元素的第一标记,第一场景对应于目标空间的第一视点,以及第二获取单元,被配置为获取在目标空间的第二场景中针对目标元素的第二标记,第二场景对应于目标空间的第二视点,第二视点不同于第一视点。该装置还包括模型生成单元。被配置为基于在目标空间的坐标系下的第一视点与第一标记的第一位置关系和第二视点与第二标记的第二位置关系生成目标空间的三维模型。
在本公开的第三方面,提供了一种电子设备。该设备包括至少一个处理单元;以及至少一个存储器,至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。指令在由至少一个处理单元执行时使设备执行第一方面的方法。
在本公开的第四方面,提供了一种计算机可读存储介质。介质上存储有计算机程序,程序被处理器执行时实现第一方面的方法。
应当理解,本发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键特征或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的描述而变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了本公开的实施例能够在其中实现的示例环境的示意图;
图2示出了根据本公开的一些实施例的用于三维模型生成的过程的流程图;
图3示出了根据本公开的一些实施例的用于呈现场景选择的选项的操作界面的示意图;
图4A和4B示出了根据本公开的一些实施例的用于三维模型生成的操作界面的示意图;
图5示出了根据本公开的一些实施例的用于三维模型生成的装置的框图;以及
图6示出了能够实施本公开的多个实施例的设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中示出了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“一些实施例”应当理解为“至少一些实施例”。下文还可能包括其他明确的和隐含的定义。
如上文所述,在建筑以及房产等相关行业中,利用VR技术可以向用户提供用于展示建筑物的空间布局、形状、面积等信息的三维模型。例如,在房屋租售行业,可以为用户呈现待出租或待出售的房屋的三维模型,以便用户可以在线进行房屋的全景漫游。
在生成三维模型的过程中,往往需要对在目标空间中,即在房屋或房屋的部分空间中,采集到的全景图进行对应的拼接或关联。如果在目标空间中采集了大量的全景图,则在将一张全景图关联到另一张全景图时需要大量的尝试,因为设备可能不清楚这张全景图对应的视点与另一张全景图对应的视点之间的关联。
此外,用户可能希望生成针对房屋中特定空间的三维模型,然而目前仍难于实现通过由用户从全景图图库中自主选择与特定空间相关联的全景图来生成三维模型。
根据本公开的各个实施例,提出一种三维模型生成的方案。例如,电子设备可以获取对应于第一视点的第一场景中针对目标元素的第一标记和对应于不同于第一视点的第二视点的第二场景中针对该目标元素的第二标记并基于第一视点与第一标记的位置关系和第二视点与第二标记之间的位置关系来生成目标空间的三维模型。
根据本公开的实现,可以简化三维模型的生成方案,避免了由于确定不同场景的视点间的关联性而造成的大量计算过程。此外可以根据用户偏好来生成建筑物中特定空间的三维模型,从而提升用户体验。
示例环境
首先参见图1,其示意性示出了其中可以实施根据本公开的示例性实现方式的示例环境100的示意图。
在示例环境100中,采集设备140可以采集与建筑物130中的目标空间相关的图像,尤其是目标空间的全景图像。在一些实施例中,采集设备140可以被实施为全景相机。在一些其他实施例中,采集设备140也可以被实施为其他能够执行目标空间的图像的拍摄的设备。采集设备140可以在一个或多个建筑物130中的不同位置点处采集目标空间的图像。
可选地,采集设备140可以与电子设备110彼此连接或被集成在该电子设备110内。采集设备140可以将所采集到的图像传输至电子设备110。
电子设备110安装有应用120。在一些实施例中,应用150可以是与房屋租售相关联的应用。在一些其他实施例中,应用150也可以涉及其他与建筑行业相关的服务。应用150可以实现针对在建筑物130中采集到的图像的处理以及基于经处理的图像来提供房屋的三维模型。用户102可以经由电子设备110和/或电子设备110的附接设备来与应用150进行交互。可选的,应用150例如还可以向采集设备140提供在一个或多个建筑物130中的至少一个位置点采集空间图像的引导。
举例而言,应用120可以基于采集设备140所采集的图像来生成建筑物130中的目标空间的三维模型,并且进而为用户102提供建筑物130中的目标空间的全景漫游。在生成三维模型的过程中,用户102可以选择在同一目标空间中对应于不同视点的多个场景图,应用120例如可以获取由用户102在多个场景图中针对同一目标元素绘制的标记并且根据这些标记与其所在场景图所对应的相应的视点来确定不同视点之间的关联,从而通过该对应于不同视点的多个场景图生成三维模型。
在一些实施例中,电子设备110可以是任意类型的移动终端、固定终端或便携式终端,包括移动手机、台式计算机、膝上型计算机、笔记本计算机、上网本计算机、平板计算机、媒体计算机、多媒体平板、个人通信系统(PCS)设备、个人导航设备、个人数字助理(PDA)、音频/视频播放器、数码相机/摄像机、定位设备、电视接收器、无线电广播接收器、电子书设备、游戏设备或者前述各项的任意组合,包括这些设备的配件和外设或者其任意组合。在一些实施例中,电子设备110也能够支持任意类型的针对用户的接口(诸如“可佩戴”电路等)。
应当理解,仅出于示例性的目的描述环境100的结构和功能,而不暗示对于本公开的范围的任何限制。
场景信息加载过程
图2示出了根据本公开的一些实施例的用于三维模型生成的过程200的流程图。过程200可以在电子设备110处被实施。为便于讨论,将参考图1的环境100来描述过程200。
如图2所示,在框210,电子设备110获取与第一视点相对应的、在建筑物130的目标空间的第一场景中针对目标元素的第一标记。
在上下文中,术语“目标空间”可以包括在建筑物130中的特定空间,例如根据房屋建筑设计结构或房屋用途而在建筑物130中划分出的多个子区域中的一个或多个。例如,目标空间可以包括书房、卧室、客厅、卫生间、厨房等。
如上文所述,在目标空间的不同视点采集多个场景图以用于生成三维模型。在一些实施例中,电子设备110可以提供与建筑物130的不同空间(房间)相关联的相应的场景图,以便用户102能够选择生成针对特定空间(房间)三维模型。
图3示出了根据本公开的实施例所呈现的用于场景选择的选项的示意图。图4A和4B分别示出了根据本公开的实施例所呈现的目标空间的场景的示意图。
例如,如图3所示,电子设备110可以提供与建筑物130所包括的房间相关联的相应的场景图的列表300。在列表300中可以包括用于呈现被选中的场景图条目的区域301和用于呈现待选择的场景图条目的区域302。
如果场景图条目310例如已经被用户102选中(如图3所示),则如图4A所示,电子设备110可以呈现与该场景图条目310对应的场景图410。在图4A中的场景图410对应于图4A中的第一视点411。
应当理解,用户102针对同一目标空间首先选择的场景图所对应的视点可以被视作该目标空间的主视点。与该目标空间相关联的其他场景图对应的其他视点可以被视作该目标空间的辅视点。
如图4A所示,电子设备110可以获取在对应于第一视点411的场景图410中针对目标元素403的第一标记412。
在一些实施例中,术语“目标元素”可以包括在建筑物130中所包括的门、窗、墙壁、家具、家电、地板中的任一项。应当理解,在一些其他实施例中,在建筑物130中其他适合的物体或对象也可以被视为目标元素。例如在图4A中,目标元素403可以是位于门401和低柜402之间的墙壁和地板的接合处。
在一些实施例中,第一标记412可以是用于指定在场景图410中的目标元素的参考位置的输入。例如,第一标记412可以是用户102在在场景图410中的目标元素的参考位置处绘制的标记。例如,如图4A所示,所绘制的第一标记412是一条直线。应当理解,标记也可以以其他合适的形状来绘制,例如曲线、矩形、长方形、三角形、圆形、椭圆形、菱形或不规则形状。
此外,如图4A所示,当场景图410被选中后,与该场景图所对应的视点相关联的标识(例如场景图条目)可以被呈现在场景图410的主视点呈现窗口404中。也就是说,场景图410所对应的第一视点411为主视点。
重新参考图2,在框220,电子设备110获取与第二视点相对应的、在建筑物130的目标空间的第二场景中针对目标元素的第二标记。
如图3所示,在场景图条目310被选中,并且对应于场景图条目310的场景图410被呈现后,需要继续选择与场景图410所对应的目标空间相同的目标空间的其他场景图来实现针对该目标空间的三维模型的生成。在图3示出的列表330中,针对于场景图410所对应的目标空间相同的目标空间,可以提供场景图条目320和330。应当理解,针对同一目标空间可以提供任意数目的场景图,这取决于在全景图采集过程中由采集设备采集到的场景图的相应数目。
例如,如果场景图条目320被选中,如图4B所示,则电子设备110可以呈现对应于场景图条目320的场景图420。在场景图420中,电子设备110可以获取在对应于第二视点421的场景图420中针对目标元素403的第二标记422。
如图4B所示,在场景图420中的目标元素403可以对应于在场景图410中的目标元素403,即目标元素403是位于门401和低柜402之间的墙壁和地板的接合处。
类似地,在图4B中,第二标记422可以是用于指定在场景图420中的目标元素403的参考位置的输入。例如,第二标记422可以是用户102在在场景图420中的目标元素403的参考位置处绘制的标记。例如,如图4B所示,所绘制的第二标记422是一条直线。应当理解,标记也可以以其他合适的形状来绘制,例如曲线、矩形、长方形、三角形、圆形、椭圆形、菱形或不规则形状。
在获取到第一标记412和第二标记422后,在框230,电子设备110可以根据第一标记412和第一视点411之间在目标空间坐标系下的第一位置关系和第二标记422和第二视点421之间在目标空间坐标系下的第二位置关系来生成三维模型。
例如,第一标记412和第一视点411之间的第一位置关系可以根据第一视点411和第一标记412上任一点之间的角度和距离来确定。例如,如图4A所示,电子设备110可以根据第一视点411和第一标记412的中点413之间的角度和距离来确定第一位置关系。
类似地,第二标记422和第二视点421之间的第二位置关系可以根据第二视点421和第二标记422上任一点之间的角度和距离来确定。例如,如图4B所示,电子设备110可以根据第二视点421和第二标记422的中点423之间的角度和距离来确定第二位置关系。
应当理解,除了中点,也可以通过第一视点和/或第二视点与标记上的其他点之间的角度和距离来相应确定第一位置关系和/或第二位置关系。其他点例如可以是端点。
记过第一位置关系和第二位置关系,电子设备110可以确定第一视点411和第二视点421之间的位置关系,即第一视点411和第二视点421之间的相对方向和距离。至少基于第一视点411和第二视点421之间位置关系,电子设备110可以生成针对与场景图410和420相关联的目标空间的三维模型。
应当理解,电子设备110可以以场景图410对应的第一视点411为主视点,并根据除对应于场景图420的第二视点421之外的目标空间的其他视点和在与该视点对应的场景图上获取到的针对目标元素的标记来生成三维模型。
以此方式,可以简化三维模型的生成方案,避免了由于确定不同场景的视点间的关联性而造成的大量计算过程。此外可以根据用户偏好来生成建筑物中特定空间的三维模型,从而提升用户体验。
示例装置和设备
本公开的实施例还提供了用于实现上述方法或过程的相应装置。图5示出了根据本公开的一些实施例的用于三维模型生成的装置500的示意性结构框图。
如图5所示,装置500可以包括第一获取单元510,被配置为获取在目标空间的第一场景中针对目标元素的第一标记,第一场景对应于目标空间的第一视点。该装置还可以包括第二获取单元520,被配置为获取在目标空间的第二场景中针对目标元素的第二标记,第二视点不同于第一视点。装置500还可以包括场景模型生成单元530,被配置为基于在目标空间的坐标系下的第一视点与第一标记的第一位置关系和第二视点与第二标记的第二位置关系生成目标空间的三维模型。
在一些实施例中,第一获取单元510还可以被配置为响应于第一视点被选中,提供第一场景的呈现;以及获取指定在第一场景中目标元素处的第一参考位置的第一标记。
在一些实施例中,装置500还被配置为提供目标空间中的与不同于第一视点的其他视点相对应的至少一个候选场景的选项。
在一些实施例中,第二获取单元520还可以被配置为响应于第二场景从至少一个候选场景中被选中,获取指定在第二场景中目标元素的第二参考位置的第二标记。
在一些实施例中,模型生成单元530还可以被配置为基于第一视点与第一标记上的第一参考点的角度和/或位置关系来确定第一视点与第一标记的第一位置关系;基于第一视点与第二标记上的第二参考点的角度和/或位置关系来确定第二视点与第二标记的第二位置关系;基于第一位置关系和第二位置关系确定第一视点和第二视点的第三位置关系以及基于第三位置关系生成三维模型。
在一些实施例中,其中目标元素包括目标空间中的门、窗、墙壁、地板、家具、家用电器中的至少一项。
在一些实施例中,第一视点为主视点,并且第二视点为辅视点。
装置500中所包括的单元可以利用各种方式来实现,包括软件、硬件、固件或其任意组合。在一些实施例中,一个或多个单元可以使用软件和/或固件来实现,例如存储在存储介质上的机器可执行指令。除了机器可执行指令之外或者作为替代,装置500中的部分或者全部单元可以至少部分地由一个或多个硬件逻辑组件来实现。作为示例而非限制,可以使用的示范类型的硬件逻辑组件包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准品(ASSP)、片上系统(SOC)、复杂可编程逻辑器件(CPLD),等等。
图6示出了其中可以实施本公开的一个或多个实施例的计算设备/服务器600的框图。应当理解,图6所示出的计算设备/服务器600仅仅是示例性的,而不应当构成对本文所描述的实施例的功能和范围的任何限制。
如图6所示,计算设备/服务器600是通用计算设备的形式。计算设备/服务器600的组件可以包括但不限于一个或多个处理器或处理单元610、存储器620、存储设备630、一个或多个通信单元640、一个或多个输入设备660以及一个或多个输出设备660。处理单元610可以是实际或虚拟处理器并且能够根据存储器620中存储的程序来执行各种处理。在多处理器系统中,多个处理单元并行执行计算机可执行指令,以提高计算设备/服务器600的并行处理能力。
计算设备/服务器600通常包括多个计算机存储介质。这样的介质可以是计算设备/服务器600可访问的任何可以获得的介质,包括但不限于易失性和非易失性介质、可拆卸和不可拆卸介质。存储器620可以是易失性存储器(例如寄存器、高速缓存、随机访问存储器(RAM))、非易失性存储器(例如,只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、闪存)或它们的某种组合。存储设备630可以是可拆卸或不可拆卸的介质,并且可以包括机器可读介质,诸如闪存驱动、磁盘或者任何其他介质,其可以能够用于存储信息和/或数据(例如用于训练的训练数据)并且可以在计算设备/服务器600内被访问。
计算设备/服务器600可以进一步包括另外的可拆卸/不可拆卸、易失性/非易失性存储介质。尽管未在图6中示出,可以提供用于从可拆卸、非易失性磁盘(例如“软盘”)进行读取或写入的磁盘驱动和用于从可拆卸、非易失性光盘进行读取或写入的光盘驱动。在这些情况中,每个驱动可以由一个或多个数据介质接口被连接至总线(未示出)。存储器620可以包括计算机程序产品625,其具有一个或多个程序模块,这些程序模块被配置为执行本公开的各种实施例的各种方法或动作。
通信单元640实现通过通信介质与其他计算设备进行通信。附加地,计算设备/服务器600的组件的功能可以以单个计算集群或多个计算机器来实现,这些计算机器能够通过通信连接进行通信。因此,计算设备/服务器600可以使用与一个或多个其他服务器、网络个人计算机(PC)或者另一个网络节点的逻辑连接来在联网环境中进行操作。
输入设备650可以是一个或多个输入设备,例如鼠标、键盘、追踪球等。输出设备660可以是一个或多个输出设备,例如显示器、扬声器、打印机等。计算设备/服务器600还可以根据需要通过通信单元640与一个或多个外部设备(未示出)进行通信,外部设备诸如存储设备、显示设备等,与一个或多个使得用户与计算设备/服务器600交互的设备进行通信,或者与使得计算设备/服务器600与一个或多个其他计算设备通信的任何设备(例如,网卡、调制解调器等)进行通信。这样的通信可以经由输入/输出(I/O)接口(未示出)来执行。
根据本公开的示例性实现方式,提供了一种计算机可读存储介质,其上存储有一条或多条计算机指令,其中一条或多条计算机指令被处理器执行以实现上文描述的方法。
这里参照根据本公开实现的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其他可编程用于三维模型生成装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其他可编程三维模型生成装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程三维模型生成装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其他可编程三维模型生成装置、或其他设备上,使得在计算机、其他可编程三维模型生成装置或其他设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其他可编程三维模型生成装置、或其他设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实现的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实现,上述说明是示例性的,并非穷尽性的,并且也不限于所公开的各实现。在不偏离所说明的各实现的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实现的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其他普通技术人员能理解本文公开的各实现。

Claims (16)

1.一种生成三维模型的方法,其中:
获取在目标空间的第一场景中针对目标元素的第一标记,所述第一场景对应于所述目标空间的第一视点;
获取在所述目标空间的第二场景中针对所述目标元素的第二标记,所述第二场景对应于所述目标空间的第二视点,所述第二视点不同于所述第一视点;以及
基于在所述目标空间的坐标系下的所述第一视点与所述第一标记的第一位置关系和所述第二视点与所述第二标记的第二位置关系生成所述目标空间的三维模型。
2.根据权利要求所述的方法,其中获取所述第一标记包括:
响应于所述第一视点被选中,提供所述第一场景的呈现;以及
获取指定在所述第一场景中所述目标元素处的第一参考位置的所述第一标记。
3.根据权利要求所述1的方法,还包括:
提供所述目标空间中的与不同于所述第一视点的其他视点相对应的至少一个候选场景的选项。
4.根据权利要求所述3的方法,其中获取所述第二标记包括:
响应于所述第二场景从所述至少一个候选场景中被选中,获取指定在所述第二场景中所述目标元素的第二参考位置的所述第二标记。
5.根据权利要求1所述的方法,其中生成所述三维模型包括:
基于所述第一视点与所述第一标记上的第一参考点的角度和/或位置关系来确定所述第一视点与所述第一标记的第一位置关系;
基于所述第一视点与所述第二标记上的第二参考点的角度和/或位置关系来确定所述第二视点与所述第二标记的第二位置关系;
基于所述第一位置关系和所述第二位置关系确定所述第一视点和所述第二视点的第三位置关系;以及
基于所述第三位置关系生成所述三维模型。
6.根据权利要求1至5中任一项所述的方法,其中所述目标元素包括所述目标空间中的门、窗、墙壁、地板、家具、家用电器中的至少一项。
7.根据权利要求1至5中任一项所述的方法,其中所述第一视点为主视点,并且所述第二视点为辅视点。
8.一种生成三维模型的装置,包括:
第一获取单元,被配置为获取在目标空间的第一场景中针对目标元素的第一标记,所述第一场景对应于所述目标空间的第一视点;
第二获取单元,被配置为获取在所述目标空间的第二场景中针对所述目标元素的第二标记,所述第二场景对应于所述目标空间的第二视点,所述第二视点不同于所述第一视点;以及
模型生成单元。被配置为基于在所述目标空间的坐标系下的所述第一视点与所述第一标记的第一位置关系和所述第二视点与所述第二标记的第二位置关系生成所述目标空间的三维模型。
9.根据权利要求8所述的装置,其中所述第一获取单元还被配置为:
响应于所述第一视点被选中,提供所述第一场景的呈现;以及
获取指定在所述第一场景中所述目标元素处的第一参考位置的所述第一标记。
10.根据权利要求8所述的装置,所述装置还被配置为:
提供所述目标空间中的与不同于所述第一视点的其他视点相对应的至少一个候选场景的选项。
11.根据权利要求10所述的装置,其中所述第二获取单元还被配置为:
响应于所述第二场景从所述至少一个候选场景中被选中,获取指定在所述第二场景中所述目标元素的第二参考位置的所述第二标记。
12.根据权利要求8所述的装置,其中所述模型生成单元还被配置为:
基于所述第一视点与所述第一标记上的第一参考点的角度和/或位置关系来确定所述第一视点与所述第一标记的第一位置关系;
基于所述第一视点与所述第二标记上的第二参考点的角度和/或位置关系来确定所述第二视点与所述第二标记的第二位置关系;
基于所述第一位置关系和所述第二位置关系确定所述第一视点和所述第二视点的第三位置关系;以及
基于所述第三位置关系生成所述三维模型。
13.根据权利要求8至12中任一项所述的装置,其中所述目标元素包括所述目标空间中的门、窗、墙壁、地板、家具、家用电器中的至少一项。
14.根据权利要求8至12中任一项所述的装置,其中所述第一视点为主视点,并且所述第二视点为辅视点。
15.一种电子设备,包括:
至少一个处理单元;以及
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令在由所述至少一个处理单元执行时使所述电子设备执行根据权利要求1至7中任一项所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1至7中任一项所述的方法。
CN202210864836.0A 2022-07-21 2022-07-21 用于三维模型生成的方法、装置、设备和存储介质 Pending CN115115786A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210864836.0A CN115115786A (zh) 2022-07-21 2022-07-21 用于三维模型生成的方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210864836.0A CN115115786A (zh) 2022-07-21 2022-07-21 用于三维模型生成的方法、装置、设备和存储介质

Publications (1)

Publication Number Publication Date
CN115115786A true CN115115786A (zh) 2022-09-27

Family

ID=83334268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210864836.0A Pending CN115115786A (zh) 2022-07-21 2022-07-21 用于三维模型生成的方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN115115786A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115879207A (zh) * 2023-02-22 2023-03-31 清华大学 室外空间围合度确定方法、装置、计算机设备和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115879207A (zh) * 2023-02-22 2023-03-31 清华大学 室外空间围合度确定方法、装置、计算机设备和存储介质
CN115879207B (zh) * 2023-02-22 2023-05-16 清华大学 室外空间围合度确定方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
US11711668B2 (en) Localization determination for mixed reality systems
CN113240769B (zh) 空间链接关系识别方法及装置、存储介质
US20160292900A1 (en) Image group processing and visualization
CN115097975A (zh) 用于控制视角转换的方法、装置、设备和存储介质
CN115115786A (zh) 用于三维模型生成的方法、装置、设备和存储介质
US20150154736A1 (en) Linking Together Scene Scans
CN114898076A (zh) 模型标签的添加方法、装置、电子设备及存储介质
CN115079921A (zh) 用于控制场景信息加载的方法、装置、设备和存储介质
CN115423920B (zh) Vr场景的处理方法、装置和存储介质
CN114911966A (zh) 用于户型数据处理的方法、装置、设备和存储介质
CN115617221A (zh) 呈现方法、装置、设备和存储介质
CN115100359A (zh) 图像处理的方法、装置、设备和存储介质
CN115097976A (zh) 用于图像处理的方法、装置、设备和存储介质
Ju et al. Stitching images with arbitrary lens distortions
CN114693893A (zh) 数据的处理方法、装置、电子设备及存储介质
CN114089836A (zh) 标注方法、终端、服务器和存储介质
Suk et al. Fixed homography–based real‐time sw/hw image stitching engine for motor vehicles
US20160019867A1 (en) Method of providing map service, display control method, and computer programs for performing the methods
CN111913635A (zh) 三维全景图片显示方法、装置、移动终端及存储介质
CN112433688A (zh) 一种图像显示方法、装置及拼接屏
CN115035165A (zh) 数据处理的方法、装置、设备和存储介质
CN114791964B (zh) 房屋装修视频的处理方法、装置、电子设备及存储介质
US20230148172A1 (en) Augmented reality processing device and method
CN115933934A (zh) 显示方法、装置、设备和存储介质
CN117827068A (zh) 交互控制方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 802, Information Building, 13 Linyin North Street, Pinggu District, Beijing, 101299

Applicant after: Beijing youzhuju Network Technology Co.,Ltd.

Address before: 101299 Room 802, information building, No. 13, linmeng North Street, Pinggu District, Beijing

Applicant before: Beijing youzhuju Network Technology Co.,Ltd.

CB02 Change of applicant information