CN109859313A - 3d点云数据获取方法、装置、3d数据生成方法及系统 - Google Patents
3d点云数据获取方法、装置、3d数据生成方法及系统 Download PDFInfo
- Publication number
- CN109859313A CN109859313A CN201910145404.2A CN201910145404A CN109859313A CN 109859313 A CN109859313 A CN 109859313A CN 201910145404 A CN201910145404 A CN 201910145404A CN 109859313 A CN109859313 A CN 109859313A
- Authority
- CN
- China
- Prior art keywords
- image
- optical grating
- grating projection
- point cloud
- imaged
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种3D点云数据获取方法、装置、3D数据生成方法及系统。所述3D生成系统包括左相机以及右相机,所述3D点云数据获取方法包括以下步骤:S1、获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到;S2、根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像;S3、根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图;S4、根据所述深度信息图获取所述待成像物体在该目标位置的3D点云数据。
Description
技术领域
本发明涉及3D数据生成领域,具体涉及一种3D点云数据获取方法、装置、3D数据生成方法及系统。
背景技术
在3D成像领域,光栅一般指的是利用数字投影仪(DLP)等光学部件,投影获得的各种频率的结构光光栅图案,此类光栅一般称为主动性结构光光栅。目前主流的3D成像系统如双目、单目或者多目成像系统,都配备相应的DLP光栅投影设备。
投影光栅的意义在于通过主动投影结构光光栅,人为制造左、右图像对应的特征点。以常见的双目成像系统为例,通过投影主动结构光光栅,计算左、右相机图像的绝对相位,以极线和绝对相位作为约束,搜索左、右图像中的对应特征点,实现亚像素级别的特征点匹配,在实现特征匹配的基础上,计算深度图,完成对物体的3D重建。因此,结构光光栅对于物体、尤其是表面光滑物体的3D重建,其重要的程度不言而喻。如果仅利用传统图像处理方法,很难准确地检测左、右图像中的对应特征点,即使能检测出来,误检率也很高,导致重建效果不好,甚至出现严重错误。
由此可见,目前主流的3D成像系统中,光栅投影仪(DLP)是必不可少的硬件设备之一。光栅投影过程一般是基于机械驱动,即通过电机运动,移动光组和DLP到达固定位置,投射若干固定频率的光栅,通过左、右CCD相机拍摄光栅投影图像,而后再进行后续的3D重建工作。
然而,对投影光栅的使用引入了新的问题,一为是重建速度,另一则为重建精度。3D重建过程中,影响重建速度的一大因素是光栅投影过程引入的机械部件运动;这是整个3D重建过程最为耗时的阶段;其二,光栅投影过程中,环境光及其变化、设备部件反光等不确定性影响,会引起投影的光栅与环境光叠加等现象,导致重建精度出现问题。
由此可见,目前主流的3D扫描领域的现实情况是:投影光栅必不可少,但是物理投影光栅的存在,带来了3D重建速度和精度问题。这些问题亟待解决。
发明内容
本发明实施例提供一种3D点云数据获取方法、装置、3D数据生成方法及系统,具有降低成本提高准确度的有益效果。
本发明提供了一种3D点云数据获取方法,应用于3D生成系统中,所述3D生成系统包括左相机以及右相机,其特征在于,所述方法包括以下步骤:
S1、获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到;
S2、根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像;
S3、根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图;
S4、根据所述深度信息图获取所述待成像物体在该目标位置的3D点云数据。
在本发明所述的3D点云数据获取方法中,所述在执行步骤S2之前,还包括步骤SX:
获取多个不同相移,不同频率下投影于待成像物体形成的左光栅投影图像训练集以及右光栅投影图像训练集;
根据该多个左光栅投影图像训练集训练得到左图像生成模型,该左图像生成模型用于根据输入的原始图像生成不同相移以及不同频率下的左光栅投影图像;
根据该多个右光栅投影图像训练集训练得到右图像生成模型,该右图像生成模型用于根据输入的原始图像生成不同相移以及不同频率的右光栅投影图像。
在本发明所述的3D点云数据获取方法中,所述步骤S2包括:
根据所述左图像生成模型以及所述左图像获取多个不同相移以及不同频率的左光栅投影图像;
根据所述右图像生成模型以及所述右图像获取多个不同相移以及不同频率的右光栅投影图像。
在本发明所述的3D点云数据获取方法中,所述步骤S3包括:
根据该多个不同相移以及不同频率下的左光栅投影图像获取该左图像的左绝对相移图;
根据该多个不同相移以及不同频率下的右光栅投影图像获取该右图像的右绝对相移图;
根据所述左绝对相移图、所述右绝对相移图以及极线约束计算所述待成像物体在所述目标位置处的深度信息图。
在本发明所述的3D点云数据获取方法中,所述左图像以及所述右图像均为当前环境光下拍摄得到的环境光图像。
本发明还提供了一种3D点云数据获取装置,包括:
第一获取模块,用于获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到;
第二获取模块,用于根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像;
计算模块,用于根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图;
第三获取模块,用于根据所述深度信息图获取所述待成像物体在该目标位置的3D点云数据。
在本发明所述的3D点云数据获取装置中,所述计算模块包括:
第一获取单元,用于根据该多个不同相移以及不同频率下的左光栅投影图像获取该左图像的左绝对相移图;
第二获取单元,用于根据该多个不同相移以及不同频率下的右光栅投影图像获取该右图像的右绝对相移图;
计算单元,用于根据所述左绝对相移图、所述右绝对相移图以及极线约束计算所述待成像物体在所述目标位置处的深度信息图。
本发明还提供了一种3D数据生成方法,包括以下步骤:
采用上述任一项所述的方法获取待成像物体在多个不同目标位置的3D点云数据;
根据该多个3D点云数据完成对所述待成像物体的3D重建。
本发明还提供了一种存储介质,所述存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行上述的方法。
本发明还提供了一种3D数据生成系统,其特征在于,包括处理器、存储器、左相机以及右相机,所述处理器分别与所述存储器、所述左相机以及所述右相机连接;
所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行上述方法。
由上可知,本发明通过获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到;根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像;根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图;根据所述深度信息图获取所述待成像物体在该目标位置的3D点云数据;从而完成3D点云数据的获取,并以该3D点云数据来生成物体完整的3D数据,而不再需要真正的DLP等光栅投影设备,极大减少了系统的成本,显著提高了系统的速度与效率。
附图说明
图1是本发明实施例中的3D点云数据获取方法的一种流程图。
图2是本发明实施例中的3D点云数据获取装置的一种结构示意图。
图3是本发明实施例中的3D数据生成系统的一种结构示意图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“顺时针”、“逆时针”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个所述特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接或可以相互通讯;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征之“上”或之“下”可以包括第一和第二特征直接接触,也可以包括第一和第二特征不是直接接触而是通过它们之间的另外的特征接触。而且,第一特征在第二特征“之上”、“上方”和“上面”包括第一特征在第二特征正上方和斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”包括第一特征在第二特征正下方和斜下方,或仅仅表示第一特征水平高度小于第二特征。
下文的公开提供了许多不同的实施方式或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。当然,它们仅仅为示例,并且目的不在于限制本发明。此外,本发明可以在不同例子中重复参考数字和/或参考字母,这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施方式和/或设置之间的关系。此外,本发明提供了的各种特定的工艺和材料的例子,但是本领域普通技术人员可以意识到其他工艺的应用和/或其他材料的使用。
请参照图1,图1是本发明一实施例中的一种3D点云数据获取方法的流程图。该3D点云数据获取方法,应用于3D数据生成系统中,以实现不同目标位置的3D点云数据获取,从而根据该获取的多个位置的3D点云数据重建物体完整的3D数据。其中,该3D生成系统包括左相机以及右相机。所述3D点云数据获取方法包括以下步骤:
S1、获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到。
其中,需要先将待成像物体调整至预设的目标位置,然后采用左相机以及右相机来拍摄该待成像物体以得到左图像以及右图像。所述左图像以及所述右图像均为当前环境光下拍摄得到的环境光图像。
其中,在拍摄每一个待成像物体时,会设定多个预设位置作为目标位置。当然,不同类型的待成像物体对应的预设位置的个数是不相同的,并且预设位置的具体方位也有一定的差异。
S2、根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像。
其中,光栅投影图像是指将光栅投影于待成像物体,然后经由成像设备拍摄所获得的图像。
其中,该图像生成模型包括用于生成不同相移以及不同频率的左光栅投影图像的左图像生成模型以及用于生成不同相移以及不同频率的右光栅投影图像的右图像生成模型。
具体地,该步骤S2可以包括:
S21、根据所述左图像生成模型以及所述左图像获取多个不同相移以及不同频率的左光栅投影图像;S22、根据所述右图像生成模型以及所述右图像获取多个不同相移以及不同频率的右光栅投影图像。
其中,在一些实施例中,在执行该步骤S2之前,还包括步骤SX,该步骤SX用于训练得到各种频率以及各种相移下的左图像生成模型以及右图像生成模型。该步骤SX具体包括:
SX1、获取不同相移、不同频率下投影于待成像物体的形成的左光栅投影图像训练集以及右光栅投影图像训练集;
其中,该多个左光栅投影图像训练集以及右光栅投影图像训练集中包括当该待成像物体位于不同位置时的光栅投影图像。
SX2、根据该多个左光栅投影图像训练集训练得到左图像生成模型,该左图像生成模型用于根据输入的原始图像生成不同相移以及不同频率下的左光栅投影图像。
SX3、根据该多个右光栅投影图像训练集训练得到右图像生成模型,该右图像生成模型用于根据输入的原始图像生成不同相移以及不同频率的右光栅投影图像。
S3、根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图。
其中,该步骤S3具体包括:
S31、根据该多个不同相移以及不同频率下的左光栅投影图像获取该左图像的左绝对相移图。S32、根据该多个不同相移以及不同频率下的右光栅投影图像获取该右图像的右绝对相移图。S33、根据所述左绝对相移图、所述右绝对相移图以及极线约束计算所述待成像物体在所述目标位置处的深度信息图。
其中,根据可以采用现有技术中的算法来根据左绝对相移图以及右绝对相移图来计算得到该待成像物体的深度信息图。
S4、根据所述深度信息图获取所述待成像物体在该目标位置的3D点云数据。
其中,深度信息图可通过坐标转换获取所述待成像物体在该目标位置的3D点云数据,属于现有技术中的算法,故此处不赘述。
本申请还提供了一种3D数据生成方法,该3D数据生成方法包括以下步骤:
采用上述实施例中所述的方法获取待成像物体在多个不同目标位置的3D点云数据;根据该多个不同位置的3D点云数据完成对所述待成像物体的3D重建。其中,在获取得到多个不同位置的3D点云后重建3D数据属于现有技术,故不赘述。
由上可知,本发明通过获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到;根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像;根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图;根据所述深度信息图获取所述待成像物体在该目标位置的3D点云数据;从而完成3D点云数据的获取,并以该3D点云来生成物体完整的3D数据,而不再需要真正的DLP等光栅投影设备,极大减少了系统的成本,显著提高了系统的速度与效率。
请参照图2,图2是本发明一些实施例中的一种3D点云数据获取装置的结构图,3D点云数据获取装置包括:第一获取模块201、第二获取模块202、计算模块203以及第三获取模块204。
其中,该第一获取模块201用于获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到。其中,需要先将待成像物体调整至预设的目标位置,然后采用左相机以及右相机来拍摄该待成像物体以得到左图像以及右图像。所述左图像以及所述右图像均为当前环境光下拍摄得到的环境光图像。其中,在拍摄每一个待成像物体时,会设定多个预设位置作为目标位置。当然,不同类型的待成像物体对应的预设位置的个数是不相同的,并且预设位置的具体方位也有一定的差异。
其中,该第二获取模块202用于根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像。其中,该图像生成模型包括用于生成不同相移以及不同频率的左光栅投影图像的左图像生成模型以及用于生成不同相移以及不同频率的右光栅投影图像的右图像生成模型。具体地,该第二获取模块202用于根据所述左图像生成模型以及所述左图像获取多个不同相移以及不同频率的左光栅投影图像;根据所述右图像生成模型以及所述右图像获取多个不同相移以及不同频率的右光栅投影图像。
其中,该计算模块203用于根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图。该计算模块203包括:第一获取单元,用于根据该多个不同相移以及不同频率下的左光栅投影图像获取该左图像的左绝对相移图;第二获取单元,用于根据该多个不同相移以及不同频率下的右光栅投影图像获取该右图像的右绝对相移图;计算单元,用于根据所述左绝对相移图、所述右绝对相移图以及极线约束计算所述待成像物体在所述目标位置处的深度信息图。
其中,该第三获取模块204用于根据所述深度信息图获取所述待成像物体在该目标位置的3D点云数据。
本发明还提供了一种存储介质,所述存储介质中存储有计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行上述的3D数据生成方法。该存储介质可以包括但不限于:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
请参照图3,本发明还提供了一种3D数据生成系统,该3D数据生成系统包括处理器301、存储器304、左相机302以及右相机303,所述处理器301分别与所述存储器304、所述左相机302以及所述右相机303连接;所述存储器304中存储有计算机程序,所述处理器301通过调用所述存储器304中存储的所述计算机程序,用于执行上述实施例中的3D数据生成方法。
其中,该左相机302以及右相机303均可以为CCD相机。
由上可知,本发明通过获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到;根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像;根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图;根据所述深度信息图获取所述待成像物体在该目标位置的3D点云,完成对3D点云的获取,并以该3D点云来生成物体完整的3D数据,而不再需要真正的DLP等光栅投影设备,极大减少了系统的成本,显著提高了系统的速度与效率。
在本说明书的描述中,参考术语“一个实施方式”、“某些实施方式”、“示意性实施方式”、“示例”、“具体示例”、或“一些示例”等的描述意指结合所述实施方式或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施方式或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施方式或示例中以合适的方式结合。
综上所述,虽然本发明已以优选实施例揭露如上,但上述优选实施例并非用以限制本发明,本领域的普通技术人员,在不脱离本发明的精神和范围内,均可作各种更动与润饰,因此本发明的保护范围以权利要求界定的范围为准。
Claims (9)
1.一种3D点云数据获取方法,应用于3D生成系统中,所述3D生成系统包括左相机以及右相机,其特征在于,所述方法包括以下步骤:
S1、获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到;
S2、根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像;
S3、根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图;
S4、根据所述深度信息图获取所述待成像物体在该目标位置的3D点云数据。
2.根据权利要求1所述的3D点云数据获取方法,其特征在于,所述在执行步骤S2之前,还包括步骤SX:
获取多个不同相移、不同频率下投影于待成像物体形成的左光栅投影图像训练集以及右光栅投影图像训练集;
根据该左光栅投影图像训练集训练得到左图像生成模型,该左图像生成模型用于根据输入的原始图像生成不同相移以及不同频率下的左光栅投影图像
根据该多个右训练光栅投影图像训练集训练得到右图像生成模型,该右图像生成模型用于根据输入的原始图像生成不同相移以及不同频率的右光栅投影图像。
3.根据权利要求2所述的3D点云数据获取方法,其特征在于,所述步骤S2包括:
根据所述左图像生成模型以及所述左图像获取多个不同相移以及不同频率的左光栅投影图像;
根据所述右图像生成模型以及所述右图像获取多个不同相移以及不同频率的右光栅投影图像。
4.根据权利要求1所述的3D点云数据获取方法,其特征在于,所述步骤S3包括:
根据该多个不同相移以及不同频率下的左光栅投影图像获取该左图像的左绝对相移图;
根据该多个不同相移以及不同频率下的右光栅投影图像获取该右图像的右绝对相移图;
根据所述左绝对相移图、所述右绝对相移图以及极线约束计算所述待成像物体在所述目标位置处的深度信息图。
5.根据权利要求1所述的3D点云数据获取方法,其特征在于,所述左图像以及所述右图像均为当前环境光下拍摄得到的环境光图像。
6.一种3D点云数据获取装置,其特征在于,包括:
第一获取模块,用于获取待成像物体在目标位置的左图像以及右图像,其中,该左图像由左相机拍摄得到,该右图像由该右相机拍摄得到;
第二获取模块,用于根据预先训练得到的图像生成模型获取多个不同相移以及不同频率的左光栅投影图像以及右光栅投影图像;
计算模块,用于根据多个左光栅投影图像、多个右光栅投影图像以及极线约束计算所述待成像物体在该目标位置的深度信息图;
第三获取模块,用于根据所述深度信息图获取所述待成像物体在该目标位置的3D点云数据。
7.根据权利要求6所述的3D点云数据获取装置,其特征在于,所述计算模块包括:
第一获取单元,用于根据该多个不同相移以及不同频率下的左光栅投影图像获取该左图像的左绝对相移图;
第二获取单元,用于根据该多个不同相移以及不同频率下的右光栅投影图像获取该右图像的右绝对相移图;
计算单元,用于根据所述左绝对相移图、所述右绝对相移图以及极线约束计算所述待成像物体在所述目标位置处的深度信息图。
8.一种3D数据生成方法,其特征在于,包括以下步骤:
采用权利要求1-5任一项所述的方法获取待成像物体在多个不同目标位置的3D点云数据;
根据该多个3D点云完成对所述待成像物体的完整的3D数据重建。
9.一种3D数据生成系统,其特征在于,包括处理器、存储器、左相机以及右相机,所述处理器分别与所述存储器、所述左相机以及所述右相机连接;
所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行权利要求8所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910145404.2A CN109859313B (zh) | 2019-02-27 | 2019-02-27 | 3d点云数据获取方法、装置、3d数据生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910145404.2A CN109859313B (zh) | 2019-02-27 | 2019-02-27 | 3d点云数据获取方法、装置、3d数据生成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109859313A true CN109859313A (zh) | 2019-06-07 |
CN109859313B CN109859313B (zh) | 2023-01-17 |
Family
ID=66899175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910145404.2A Active CN109859313B (zh) | 2019-02-27 | 2019-02-27 | 3d点云数据获取方法、装置、3d数据生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109859313B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110779933A (zh) * | 2019-11-12 | 2020-02-11 | 广东省智能机器人研究院 | 基于3d视觉传感阵列的表面点云数据获取方法和系统 |
CN111815698A (zh) * | 2020-07-20 | 2020-10-23 | 广西安良科技有限公司 | 人工智能单目3d点云生成方法、装置、终端及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100315490A1 (en) * | 2009-06-15 | 2010-12-16 | Electronics And Telecommunications Research Institute | Apparatus and method for generating depth information |
CN106931910A (zh) * | 2017-03-24 | 2017-07-07 | 南京理工大学 | 一种基于多模态复合编码和极线约束的高效三维图像获取方法 |
CN107869968A (zh) * | 2017-12-01 | 2018-04-03 | 杭州测度科技有限公司 | 一种适用于复杂物体表面的快速三维扫描方法及系统 |
-
2019
- 2019-02-27 CN CN201910145404.2A patent/CN109859313B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100315490A1 (en) * | 2009-06-15 | 2010-12-16 | Electronics And Telecommunications Research Institute | Apparatus and method for generating depth information |
CN106931910A (zh) * | 2017-03-24 | 2017-07-07 | 南京理工大学 | 一种基于多模态复合编码和极线约束的高效三维图像获取方法 |
CN107869968A (zh) * | 2017-12-01 | 2018-04-03 | 杭州测度科技有限公司 | 一种适用于复杂物体表面的快速三维扫描方法及系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110779933A (zh) * | 2019-11-12 | 2020-02-11 | 广东省智能机器人研究院 | 基于3d视觉传感阵列的表面点云数据获取方法和系统 |
CN111815698A (zh) * | 2020-07-20 | 2020-10-23 | 广西安良科技有限公司 | 人工智能单目3d点云生成方法、装置、终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109859313B (zh) | 2023-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3392831B1 (en) | Three-dimensional sensor system and three-dimensional data acquisition method | |
CN105026997B (zh) | 投影系统、半导体集成电路及图像修正方法 | |
JP5580164B2 (ja) | 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム | |
US7768527B2 (en) | Hardware-in-the-loop simulation system and method for computer vision | |
CN105306922B (zh) | 一种深度相机参考图的获取方法和装置 | |
JP2012037491A (ja) | 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム | |
JP6097903B2 (ja) | 3次元形状の取得装置、処理方法およびプログラム | |
US11200690B2 (en) | Image processing apparatus, three-dimensional shape data generation method, and non-transitory computer readable storage medium | |
Yang et al. | Surface reconstruction via fusing sparse-sequence of depth images | |
CN109299662A (zh) | 深度数据计算设备与方法及人脸识别设备 | |
JP2016024052A (ja) | 3次元計測システム、3次元計測方法及びプログラム | |
CN110544278B (zh) | 刚体运动捕捉方法及装置、agv位姿捕捉系统 | |
CN109859313A (zh) | 3d点云数据获取方法、装置、3d数据生成方法及系统 | |
CN110738599A (zh) | 图像拼接方法、装置、电子设备及存储介质 | |
KR102082277B1 (ko) | 파노라마 영상 생성 방법 및 그 장치 | |
CN114399610A (zh) | 基于引导先验的纹理映射系统和方法 | |
JP2001148012A (ja) | 対応点探索方法および装置 | |
Cui et al. | 3D body scanning with one Kinect | |
Bartczak et al. | Integration of a time-of-flight camera into a mixed reality system for handling dynamic scenes, moving viewpoints and occlusions in real-time | |
CN107592464B (zh) | 一种变倍过程中变倍跟随曲线的切换方法及装置 | |
US11195322B2 (en) | Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium | |
CN116912331A (zh) | 标定数据生成方法、装置、电子设备及存储介质 | |
JP4778569B2 (ja) | ステレオ画像処理装置、ステレオ画像処理方法及びステレオ画像処理プログラム | |
JP5728399B2 (ja) | 計測装置、方法及びプログラム | |
CN111526297B (zh) | 曲面屏图像采集方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |