CN113689540B - 基于rgb视频的物体重建方法和装置 - Google Patents
基于rgb视频的物体重建方法和装置 Download PDFInfo
- Publication number
- CN113689540B CN113689540B CN202110832398.5A CN202110832398A CN113689540B CN 113689540 B CN113689540 B CN 113689540B CN 202110832398 A CN202110832398 A CN 202110832398A CN 113689540 B CN113689540 B CN 113689540B
- Authority
- CN
- China
- Prior art keywords
- rgb video
- image
- rgb
- camera
- key frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 238000004458 analytical method Methods 0.000 claims description 11
- 230000001186 cumulative effect Effects 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 abstract description 2
- 230000005855 radiation Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 210000005036 nerve Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请提出了一种基于RGB视频的物体重建方法和装置,涉及三维重建、机器学习技术领域,其中,该方法包括:获取待重建物体的RGB视频;对RGB视频进行预处理,获取RGB视频中的关键帧图像和对应的相机姿态;使用NerF训练方法,将关键帧图像和对应的相机姿态作为训练数据,训练一个多层感知器MLP,生成待重建物体的辐照度场;根据辐照度场生成点云,并使用基于体素的方法将点云进行融合,生成包含物体模型的体素体;使用Marching Cubes算法从体素体中提取待重建物体的模型。采用上述方案的本申请为物体重建提出了一种从RGB视频中获取物体几何和纹理模型的方法,使用RGB视频作为输入,采集方法简单,数据容易获取。
Description
技术领域
本申请涉及三维重建、机器学习技术领域,尤其涉及一种基于RGB视频的物体重建方法和装置。
背景技术
物体重建是计算机图形学和计算机视觉中的重要研究内容,在动画、电影、VR/AR等领域都有非常广泛的应用。然而,当前基于RGB视频输入的方法难以获得令人满意的物体重建结果。人工智能技术的发展为基于RGB视频输入的物体几何和纹理重建开辟了新的道路。已有研究表明,神经网络可以从单帧的RGB图像中恢复物体的几何以及纹理。然而,当前通过神经网络得到的物体模型还比较粗糙。
物体重建技术能够从视觉信息中恢复物体的几何和纹理,因此受到了学术界和工业界的重视,在游戏动画、VR/AR、文物保护等领域有着非常广泛的应用价值。然而,目前的三维模型重建技术为了得到高质量的三维模型,往往需要使用昂贵的仪器采集高质量的彩色图,并通过立体匹配的方法实现高质量的三维模型重建。由于此种方法的高成本,这种重建技术仅用于高端场合,难以走进人们的生活中。近年来,随着神经网络技术的发展,越来越多的研究者使用多层全连接网络(MLP,Multi-Layer Perception)构建神经辐射场(NeRF,Neural Radiance Field),从而获得高质量的任意视角图像。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种基于RGB视频的物体重建方法,解决了现有方法高成本,重建技术仅用于高端场合难以走进人们的生活的问题,通过以RGB视频作为输入,使用神经辐射场记录物体的几何和纹理信息,实现了从神经辐射场中提取高精度物体模型的目的,本申请采集方法简单,数据容易获取。
本申请的第二个目的在于提出一种基于RGB视频的物体重建装置。
本申请的第三个目的在于提出一种非临时性计算机可读存储介质。
为达上述目的,本申请第一方面实施例提出了一种基于RGB视频的物体重建方法,包括:获取待重建物体的RGB视频;对RGB视频进行预处理,获取RGB视频中的关键帧图像和对应的相机姿态;使用NerF训练方法,将关键帧图像和对应的相机姿态作为训练数据,训练一个多层感知器MLP,生成待重建物体的辐照度场;根据辐照度场生成点云,并将点云进行融合,生成包含物体模型的体素体;使用Marching Cubes算法从体素体中提取待重建物体的模型。
在本申请的一个实施例中,需要制作一个ArUco定位板,将待重建物体放置于定位板中央,使用录像设备围绕着待重建物体进行拍摄,生成待重建物体的RGB视频。
在本申请的一个实施例中,需要获取RGB视频中的关键帧视频和对应的相机姿态,包括以下步骤:
使用图像处理的方法获取RGB视频中每帧RGB图像的清晰度,并按照每30帧提取一帧最清晰的图像构成多视角图像;
使用多视角图像的ArUco码确定每帧RGB图像对应的相机姿态,剔除多视角图像中无法获得相机姿态的图像帧,生成关键帧图像和对应的相机姿态。
在本申请的一个实施例中,体素体的生成包括以下步骤:
在关键帧图像对应的相机姿态范围内生成预设个数的虚拟相机姿态;
从虚拟相机出发,对辐照度场进行查询,将虚拟相机图像中每个像素的投射光线上累积密度为1的位置及该投射光线上的期望颜色值记录为三维点,所有的三维点构成点云;
使用基于体素的方法对点云进行融合,生成包含物体模型的体素体。
为达上述目的,本申请第二方面实施例提出了一种基于RGB视频的物体重建装置,包括获取模块、分析模块、训练模块、生成模块、提取模块,其中,
获取模块,用于获取待重建物体的RGB视频;
分析模块,用于对RGB视频进行预处理,获取RGB视频中的关键帧图像和对应的相机姿态;
训练模块,用于使用NerF训练方法,将关键帧图像和对应的相机姿态作为训练数据,训练一个多层感知器MLP,生成待重建物体的辐照度场;
生成模块,用于根据辐照度场生成点云,并将点云进行融合,生成包含物体模型的体素体;
提取模块,用于使用Marching Cubes算法从体素体中提取待重建物体的模型。
在本申请的一个实施例中,获取模块,具体用于:
使用A4纸打印制作一个ArUco定位板,将待重建物体放置于定位板中央,使用手机围绕着待重建物体进行拍摄,生成待重建物体的RGB视频。
在本申请的一个实施例中,分析模块,具体用于:
使用图像处理方法获取RGB视频中每帧RGB图像的清晰度,并按照每30帧提取一帧最清晰的图像构成多视角图像;
使用多视角图像的ArUco码确定每帧RGB图像对应的相机姿态,剔除多视角图像中无法获得相机姿态的图像帧,生成关键帧图像和对应的相机姿态。
在本申请的一个实施例中,生成模块,具体用于:
在关键帧图像对应的相机姿态范围内生成预设个数的虚拟相机姿态;
从虚拟相机出发,对辐照度场进行查询,将虚拟相机图像中每个像素的投射光线上累积密度为1的位置及该投射光线上的期望颜色值记录为三维点,所有的三维点构成点云;
利用基于体素的融合方法对点云进行融合,生成包含物体模型的体素体。
为了实现上述目的,本申请第三方面实施例提出了一种非临时性计算机可读存储介质,当存储介质中的指令由处理器被执行时,能够执行一种基于RGB视频的物体重建方法。
本申请实施例的基于RGB视频的物体重建方法、基于RGB视频的物体重建装置和非临时性计算机可读存储介质,解决了现有方法高成本,重建技术仅用于高端场合难以走进人们的生活的问题,通过以RGB视频作为输入,使用神经辐射场记录物体的几何和纹理信息,并实现了从神经辐射场中提取高精度物体模型的目的,本申请采集方法简单,数据容易获取。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例一所提供的一种基于RGB视频的物体重建方法的流程图;
图2为本申请实施例的基于RGB视频的物体重建方法的另一个流程图;
图3为本申请实施例二所提供的一种基于RGB视频的物体重建装置的结构示意图。
具体实施方式
下面详细描述本申请的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于RGB视频的物体重建方法和装置。
图1为本申请实施例一所提供的一种基于RGB视频的物体重建方法的流程图。
如图1所示,该基于RGB视频的物体重建方法包括以下步骤:
步骤101,获取待重建物体的RGB视频;
步骤102,对RGB视频进行预处理,获取RGB视频中的关键帧图像和对应的相机姿态;
步骤103,使用NerF训练方法,将关键帧图像和对应的相机姿态作为训练数据,训练一个多层感知器MLP,生成待重建物体的辐照度场;
步骤104,根据辐照度场生成点云,并将点云进行融合,生成包含物体模型的体素体;
步骤105,使用Marching Cubes算法从体素体中提取待重建物体的模型。
本申请实施例的基于RGB视频的物体重建方法,通过获取待重建物体的RGB视频;对RGB视频进行预处理,获取RGB视频中的关键帧图像和对应的相机姿态;使用NerF训练方法,将关键帧图像和对应的相机姿态作为训练数据,训练一个多层感知器MLP,生成待重建物体的辐照度场;根据辐照度场生成点云,并将点云进行融合,生成包含物体模型的体素体;使用Marching Cubes算法从体素体中提取待重建物体的模型。由此,能够解决现有方法高成本,重建技术仅用于高端场合难以走进人们的生活的问题,通过以RGB视频作为输入,使用神经辐射场记录物体的几何和纹理信息,并实现了从神经辐射场中提取高精度物体模型的目的,本申请采集方法简单,数据容易获取。
进一步地,在本申请实施例中,制作一个ArUco定位板,将待重建物体放置于定位板中央,使用录像设备围绕着待重建物体进行拍摄,生成待重建物体的RGB视频。
可以使用任何可以采集RGB视频(如手机,单反相机或者网络相机)的设备对物体进行采集。
进一步地,在本申请实施例中,获取RGB视频中的关键帧视频和对应的相机姿态,包括以下步骤:
使用图像处理方法获取RGB视频中每帧RGB图像的清晰度,并按照每30帧提取一帧最清晰的图像构成多视角图像;
使用多视角图像的ArUco码确定每帧RGB图像对应的相机姿态,剔除多视角图像中无法获得相机姿态的图像帧,生成关键帧图像和对应的相机姿态。
进一步地,在本申请实施例中,包含物体模型的体素体的生成包括以下步骤:
在关键帧图像对应的相机姿态范围内生成预设个数的虚拟相机姿态;
从虚拟相机出发,对辐照度场进行查询,将虚拟相机图像中每个像素的投射光线上累积密度为1的位置及该投射光线上的期望颜色值记录为三维点,所有的三维点构成点云;
使用基于体素的方法对点云进行融合,生成包含物体模型的体素体,物体模型表达为截断符号距离函数。
利用NeRF的训练方法,使用相机姿态和对应的RGB图像作为训练数据,训练一个多层感知器,使得该感知器记录下物体的模型。从多个虚拟相机图像的像素出发,通过多次查询,从已经训练好的感知器中得到累积密度为1处的位置和投射光线上的期望颜色信息,记录为点云。使用尺寸较小的体素将多帧点云融合在一起,并使用Marching Cubes算法提取模型,得到最终的物体模型。
图2为本申请实施例的基于RGB视频的物体重建方法的另一个流程图。
如图2所示,该基于RGB视频的物体重建方法包括:使用A4纸打印制作一个ArUco定位板,并将待重建的物体放置于定位板中央。使用手机围绕着物体拍摄目标对象的RGB视频;分析视频中每帧RGB图像的清晰度,并按照每30帧提取一帧最清晰的图像构成物体的多视角图像,使用清晰图像中的ArUco码确定每帧图像对应的相机位姿,剔除无法获得姿态的图像帧,保留能够获取正确相机位姿的清晰图像及相机姿态;将清晰图像和对应的相机姿态作为输入,对MLP进行训练,获得物体的辐照度场;在关键帧的姿态范围内生成若干虚拟相机姿态,并从虚拟相机出发对MLP进行查询,记录虚拟相机图像中每个像素的投射光线上累积密度(accumulated density)为1的位置及该投射光线上的期望颜色值,记录为三维点;计算提取点云的外包围盒,并构造一个体素尺寸较小的体素体,将提取的三维点云融合到体素中;使用Marching Cubes算法从体素中提取物体的模型。
图3为本申请实施例二所提供的一种基于RGB视频的物体重建装置的结构示意图。
如图3所示,该基于RGB视频的物体重建装置包括:获取模块、分析模块、训练模块、生成模块、提取模块,其中,
获取模块10,用于获取待重建物体的RGB视频;
分析模块20,用于对RGB视频进行预处理,获取RGB视频中的关键帧图像和对应的相机姿态;
训练模块30,用于使用NerF训练方法,将关键帧图像和对应的相机姿态作为训练数据,训练一个多层感知器MLP,生成待重建物体的辐照度场;
生成模块40,用于根据辐照度场生成点云,并将点云进行融合,生成包含物体模型的体素体;
提取模块50,用于使用Marching Cubes算法从体素体中提取待重建物体的模型。
进一步地,在本申请实施例中,获取模块,具体用于:
使用A4纸打印制作一个ArUco定位板,将待重建物体放置于定位板中央,使用手机围绕着待重建物体进行拍摄,生成待重建物体的RGB视频。
进一步地,在本申请实施例中,分析模块,具体用于:
使用图像处理方法获取RGB视频中每帧RGB图像的清晰度,并按照每30帧提取一帧最清晰的图像构成多视角图像;
使用多视角图像的ArUco码确定每帧RGB图像对应的相机姿态,剔除多视角图像中无法获得相机姿态的图像帧,生成关键帧图像和对应的相机姿态。
进一步地,在本申请实施例中,生成模块,具体用于:
在关键帧图像对应的相机姿态范围内生成预设个数的虚拟相机姿态;
从虚拟相机出发,对辐照度场进行查询,将虚拟相机图像中每个像素的投射光线上累积密度为1的位置及该投射光线上的期望颜色值记录为三维点,所有的三维点构成点云;
使用基于体素的方法对点云进行融合,生成包含物体模型的体素体。
本申请实施例的基于RGB视频的物体重建装置,包括获取模块、分析模块、训练模块、生成模块、提取模块,其中,获取模块,用于获取待重建物体的RGB视频;分析模块,用于对RGB视频进行预处理,获取RGB视频中的关键帧图像和对应的相机姿态;训练模块,用于使用NerF训练方法,将关键帧图像和对应的相机姿态作为训练数据,训练一个多层感知器MLP,生成待重建物体的辐照度场;生成模块,用于根据辐照度场生成点云,并将点云进行融合,生成包含物体模型的体素体;提取模块,用于使用Marching Cubes算法从体素体中提取待重建物体的模型。由此,能够解决现有方法高成本,重建技术仅用于高端场合难以走进人们的生活的问题,通过以RGB视频作为输入,使用神经辐射场记录物体的几何和纹理信息,实现了从神经辐射场中提取高精度物体模型的目的,本申请采集方法简单,数据容易获取。
为了实现上述实施例,本申请还提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例的基于RGB视频的物体重建方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (5)
1.一种基于RGB视频的物体重建方法,其特征在于,包括以下步骤:
获取待重建物体的RGB视频;
对所述RGB视频进行预处理,获取所述RGB视频中的关键帧图像和对应的相机姿态;
使用NerF训练方法,将所述关键帧图像和对应的相机姿态作为训练数据,训练一个多层感知器MLP,生成所述待重建物体的辐照度场;
根据所述辐照度场生成点云,并将所述点云进行融合,生成包含物体模型的体素体;
使用Marching Cubes算法从所述体素体中提取所述待重建物体的模型;
其中,所述获取所述RGB视频中的关键帧视频和对应的相机姿态,包括以下步骤:
使用图像处理的方法获取所述RGB视频中每帧RGB图像的清晰度,并按照每30帧提取一张最清晰的图像构成多视角图像;
使用所述多视角图像的ArUco码确定每帧RGB图像对应的相机姿态,剔除所述多视角图像中无法获得相机姿态的图像帧,生成关键帧图像和对应的相机姿态;
其中,所述体素体的生成包括以下步骤:
在所述关键帧图像对应的相机姿态范围内生成预设个数的虚拟相机姿态;
从所述虚拟相机出发,对所述辐照度场进行查询,将所述虚拟相机图像中每个像素的投射光线上累积密度为1的位置及该投射光线上的期望颜色值记录为三维点,所有的三维点构成点云;
使用基于体素的方法对所述点云进行融合,生成所述包含物体模型的体素体。
2.如权利要求1所述的方法,其特征在于,制作一个ArUco定位板,将所述待重建物体放置于所述ArUco定位板中央,使用录像设备围绕着所述待重建物体进行拍摄,生成所述待重建物体的RGB视频。
3.一种基于RGB视频的物体重建装置,其特征在于,包括获取模块、分析模块、训练模块、生成模块、提取模块,其中,
所述获取模块,用于获取待重建物体的RGB视频;
所述分析模块,用于对所述RGB视频进行预处理,获取所述RGB视频中的关键帧图像和对应的相机姿态;
所述训练模块,用于使用NerF训练方法,将所述关键帧图像和对应的相机姿态作为训练数据,训练一个多层感知器MLP,生成所述待重建物体的辐照度场;
所述生成模块,用于根据所述辐照度场生成点云,并将所述点云进行融合,生成包含物体模型的体素体;
所述提取模块,用于使用Marching Cubes算法从所述体素体中提取所述待重建物体的模型;
其中,所述分析模块,具体用于:
使用图像处理的方法获取所述RGB视频中每帧RGB图像的清晰度,并按照每30帧提取一帧最清晰的图像构成多视角图像;
使用所述多视角图像的ArUco码确定每帧RGB图像对应的相机姿态,剔除所述多视角图像中无法获得相机姿态的图像帧,生成关键帧图像和对应的相机姿态;
其中,所述生成模块,具体用于:
在所述关键帧图像对应的相机姿态范围内生成预设个数的虚拟相机姿态;
从所述虚拟相机出发,对所述辐照度场进行查询,将所述虚拟相机图像中每个像素的投射光线上累积密度为1的位置及该投射光线上的期望颜色值记录为三维点,所有的三维点构成点云;
使用基于体素的方法对所述点云进行融合,生成所述包含物体模型的体素体。
4.如权利要求3所述的装置,其特征在于,所述获取模块,具体用于:
使用A4纸打印制作一个ArUco定位板,将所述待重建物体放置于所述ArUco定位板中央,使用手机围绕着所述待重建物体进行拍摄,生成所述待重建物体的RGB视频。
5.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-2中任一所述的基于RGB视频的物体重建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110832398.5A CN113689540B (zh) | 2021-07-22 | 2021-07-22 | 基于rgb视频的物体重建方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110832398.5A CN113689540B (zh) | 2021-07-22 | 2021-07-22 | 基于rgb视频的物体重建方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113689540A CN113689540A (zh) | 2021-11-23 |
CN113689540B true CN113689540B (zh) | 2024-04-23 |
Family
ID=78577732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110832398.5A Active CN113689540B (zh) | 2021-07-22 | 2021-07-22 | 基于rgb视频的物体重建方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113689540B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114663810B (zh) * | 2022-03-21 | 2023-11-10 | 中国电信股份有限公司 | 基于多模态的物体图像增广方法及装置、设备及存储介质 |
CN114973355B (zh) * | 2022-05-05 | 2024-08-20 | 清华大学 | 人脸嘴部重建方法及装置 |
CN114998514A (zh) * | 2022-05-16 | 2022-09-02 | 聚好看科技股份有限公司 | 一种虚拟角色的生成方法及设备 |
CN114648613B (zh) * | 2022-05-18 | 2022-08-23 | 杭州像衍科技有限公司 | 基于可变形神经辐射场的三维头部模型重建方法及装置 |
WO2024007181A1 (zh) * | 2022-07-06 | 2024-01-11 | 北京原创力科技有限公司 | 基于多尺度时空编码的动态场景三维重建方法及系统 |
CN115330940B (zh) * | 2022-08-09 | 2023-05-23 | 北京百度网讯科技有限公司 | 一种三维重建方法、装置、设备和介质 |
CN116152442B (zh) * | 2023-03-30 | 2023-09-08 | 北京数原数字化城市研究中心 | 一种三维点云模型生成方法及装置 |
CN116597097B (zh) * | 2023-07-14 | 2023-12-22 | 深圳元戎启行科技有限公司 | 用于自动驾驶的三维场景重建方法、电子设备和存储介质 |
CN116664782B (zh) * | 2023-07-31 | 2023-10-13 | 南京信息工程大学 | 一种基于融合体素的神经辐射场三维重建方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654492A (zh) * | 2015-12-30 | 2016-06-08 | 哈尔滨工业大学 | 基于消费级摄像头的鲁棒实时三维重建方法 |
CN106997605A (zh) * | 2017-03-22 | 2017-08-01 | 浙江大学 | 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法 |
CN110245638A (zh) * | 2019-06-20 | 2019-09-17 | 北京百度网讯科技有限公司 | 视频生成方法和装置 |
WO2019179200A1 (zh) * | 2018-03-22 | 2019-09-26 | 深圳岚锋创视网络科技有限公司 | 多目相机的三维重建方法、vr相机和全景相机 |
CN111369666A (zh) * | 2020-03-02 | 2020-07-03 | 中国电子科技集团公司第五十二研究所 | 一种基于多台rgbd相机的动态目标重建方法和装置 |
CN112258618A (zh) * | 2020-11-04 | 2021-01-22 | 中国科学院空天信息创新研究院 | 基于先验激光点云与深度图融合的语义建图与定位方法 |
CN112435325A (zh) * | 2020-09-29 | 2021-03-02 | 北京航空航天大学 | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 |
CN112509115A (zh) * | 2020-11-26 | 2021-03-16 | 中国人民解放军战略支援部队信息工程大学 | 序列图像动态场景三维时变无约束重建方法及系统 |
CN112614229A (zh) * | 2020-12-29 | 2021-04-06 | 清华大学 | 基于深度学习的人脸重建方法和装置 |
CN112907736A (zh) * | 2021-03-11 | 2021-06-04 | 清华大学 | 基于隐式场的十亿像素场景人群三维重建方法和装置 |
CN112907737A (zh) * | 2021-03-31 | 2021-06-04 | 清华大学 | 基于隐函数融合的动态人体三维重建方法和装置 |
CN113099208A (zh) * | 2021-03-31 | 2021-07-09 | 清华大学 | 基于神经辐射场的动态人体自由视点视频生成方法和装置 |
CN113112586A (zh) * | 2021-04-02 | 2021-07-13 | 浙江大学 | 基于先验模型的实时人体三维重建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10984583B2 (en) * | 2018-03-28 | 2021-04-20 | Apple Inc. | Reconstructing views of real world 3D scenes |
-
2021
- 2021-07-22 CN CN202110832398.5A patent/CN113689540B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654492A (zh) * | 2015-12-30 | 2016-06-08 | 哈尔滨工业大学 | 基于消费级摄像头的鲁棒实时三维重建方法 |
CN106997605A (zh) * | 2017-03-22 | 2017-08-01 | 浙江大学 | 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法 |
WO2019179200A1 (zh) * | 2018-03-22 | 2019-09-26 | 深圳岚锋创视网络科技有限公司 | 多目相机的三维重建方法、vr相机和全景相机 |
CN110245638A (zh) * | 2019-06-20 | 2019-09-17 | 北京百度网讯科技有限公司 | 视频生成方法和装置 |
CN111369666A (zh) * | 2020-03-02 | 2020-07-03 | 中国电子科技集团公司第五十二研究所 | 一种基于多台rgbd相机的动态目标重建方法和装置 |
CN112435325A (zh) * | 2020-09-29 | 2021-03-02 | 北京航空航天大学 | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 |
CN112258618A (zh) * | 2020-11-04 | 2021-01-22 | 中国科学院空天信息创新研究院 | 基于先验激光点云与深度图融合的语义建图与定位方法 |
CN112509115A (zh) * | 2020-11-26 | 2021-03-16 | 中国人民解放军战略支援部队信息工程大学 | 序列图像动态场景三维时变无约束重建方法及系统 |
CN112614229A (zh) * | 2020-12-29 | 2021-04-06 | 清华大学 | 基于深度学习的人脸重建方法和装置 |
CN112907736A (zh) * | 2021-03-11 | 2021-06-04 | 清华大学 | 基于隐式场的十亿像素场景人群三维重建方法和装置 |
CN112907737A (zh) * | 2021-03-31 | 2021-06-04 | 清华大学 | 基于隐函数融合的动态人体三维重建方法和装置 |
CN113099208A (zh) * | 2021-03-31 | 2021-07-09 | 清华大学 | 基于神经辐射场的动态人体自由视点视频生成方法和装置 |
CN113112586A (zh) * | 2021-04-02 | 2021-07-13 | 浙江大学 | 基于先验模型的实时人体三维重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113689540A (zh) | 2021-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113689540B (zh) | 基于rgb视频的物体重建方法和装置 | |
Uittenbogaard et al. | Privacy protection in street-view panoramas using depth and multi-view imagery | |
Jaritz et al. | Sparse and dense data with cnns: Depth completion and semantic segmentation | |
Hu et al. | Revisiting single image depth estimation: Toward higher resolution maps with accurate object boundaries | |
CN111243093B (zh) | 三维人脸网格的生成方法、装置、设备及存储介质 | |
CN112367514B (zh) | 三维场景构建方法、装置、系统和存储介质 | |
CN112927362B (zh) | 地图重建方法及装置、计算机可读介质和电子设备 | |
CN110135455A (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
CN112329702B (zh) | 一种快速人脸密度预测和人脸检测方法、装置、电子设备及存储介质 | |
CN111951368B (zh) | 一种点云、体素和多视图融合的深度学习方法 | |
CN113033442B (zh) | 基于StyleGAN的高自由度人脸驱动方法和装置 | |
Sharma et al. | A flexible architecture for multi-view 3DTV based on uncalibrated cameras | |
CN115035235A (zh) | 三维重建方法及装置 | |
CN115222917A (zh) | 三维重建模型的训练方法、装置、设备及存储介质 | |
CN116012432A (zh) | 立体全景图像的生成方法、装置和计算机设备 | |
CN116843867A (zh) | 增强现实虚实融合方法、电子设备和存储介质 | |
Ling et al. | Gans-nqm: A generative adversarial networks based no reference quality assessment metric for rgb-d synthesized views | |
CN115115713A (zh) | 一种统一时空融合的环视鸟瞰图感知方法 | |
CN110717471B (zh) | 基于支持向量机模型b超图像目标检测方法及b超扫描仪 | |
CN116188349A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
Cao et al. | Depth image vibration filtering and shadow detection based on fusion and fractional differential | |
CN112308987A (zh) | 车载图像拼接方法、系统以及装置 | |
CN111985535A (zh) | 一种通过神经网络优化人体深度图的方法及其装置 | |
CN115909446B (zh) | 一种双目人脸活体判别方法、装置及存储介质 | |
Liu et al. | Synthesis and identification of three-dimensional faces from image (s) and three-dimensional generic models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |