CN107862741A - 一种基于深度学习的单帧图像三维重建装置及方法 - Google Patents

一种基于深度学习的单帧图像三维重建装置及方法 Download PDF

Info

Publication number
CN107862741A
CN107862741A CN201711302400.8A CN201711302400A CN107862741A CN 107862741 A CN107862741 A CN 107862741A CN 201711302400 A CN201711302400 A CN 201711302400A CN 107862741 A CN107862741 A CN 107862741A
Authority
CN
China
Prior art keywords
high definition
definition camera
training
data
led area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711302400.8A
Other languages
English (en)
Other versions
CN107862741B (zh
Inventor
举雅琨
董军宇
亓琳
卢亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chinese translation Entertainment Technology (Qingdao) Co.,Ltd.
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN201711302400.8A priority Critical patent/CN107862741B/zh
Publication of CN107862741A publication Critical patent/CN107862741A/zh
Application granted granted Critical
Publication of CN107862741B publication Critical patent/CN107862741B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)

Abstract

基于深度学习的单帧图像三维重建装置和方法,包括上位机、支撑框架及其顶部的高清相机,围绕高清相机等高设置三个呈120度的平行光LED面光源。方法包括拍摄训练样本,将红绿蓝灯同时照射下的图像作为训练模型所需的输入数据,将白光依次照射下的三张图像取灰度值,转变为单通道图像作为训练模型用的真值,利用深度学习方法和输入的数据,构建用于单帧图像三维重建的逐像素的全连接网络模型,训练模型,利用反向传播算法不断调整优化网络参数,预测目标表面三维信息,将用网络预测的结果采用光度立体算法三维重建,得到物体表面三维信息。本发明通过改进网络的结构,构建适合单帧图像三维重建的网络模型,较多帧图像三维重建增加了应用场景。

Description

一种基于深度学习的单帧图像三维重建装置及方法
技术领域
本发明涉及单帧图像三维重建的装置,关键是一种基于深度学习的单帧图像三维重建方法,属于单帧图像三维重建领域
背景技术
三维重建是指将真实场景中的三维物体在计算机中建立数学模型的过程,是计算机视觉领域的一个热门研究方向。相比于二维图像,三维模型能够提供物体的深度数据,从而能够更加全面的展示物体特性,因而在计算机动画、人机交互、现代医学等多个领域都有着广泛的应用。
但是多数的三维重建算法都为多帧图像三维重建,在实际的应用中,多帧图像的局限性很大,无法实时三维重建,无法对动态非刚性物体三维重建。然而对于传统的单帧重建方法,精确度不高,表面细节无法重建,很难应用于高精度需求的场景。先前的基于深度学习的三维重建算法,无法实现单帧,精度差,对颜色鲁棒性差,无法三维重建出表面有多种颜色的物体。
发明内容
为了实现单帧图像三维重建,本发明提供实现单帧图像三维重建的集成装置及方法。依靠本发明提供的装置及方法,可以对单帧图像三维重建,可实现高精度,表面重建细节丰富,对颜色具有鲁棒性的三维表面模型。
基于深度学习的单帧图像三维重建装置,包括上位机,其特征在于还包括一个支撑框架,支撑框架顶部设有一个高清相机,围绕高清相机设有三个平行光LED面光源,高清相机与各个平行光LED面光源位于同一水平面,三个平行光LED面光源至高清相机的距离相等,每个平行光LED面光源与高清相机及其邻近的平行光LED面光源呈120度夹角,三个平行光LED面光源分别为白红、白绿、白蓝光源;所述高清相机与所述上位机相连。
所述的基于深度学习的单帧图像三维重建装置,其特征在于所述支撑框架为一个圆柱体形框架,其顶部中心固定一个高清相机,在圆柱框架顶部每隔120度装有一个平行光LED面光源
所有设备均与设备控制器相连,可以单独控制开关。
基于深度学习的单帧图像三维重建方法,其特征在于包括以下步骤:
1)将待拍摄物体放置在高清相机正下方,在与高清相机同一水平面上,围绕高清相机设置三个平行光LED面光源,每个平行光LED面光源至高清相机的距离相等,每个平行光LED面光源与高清相机及其邻近的平行光LED面光源呈120度夹角,三个平行光LED面光源分别为白红、白绿、白蓝光源;
2)利用高清相机和平行光LED面光源拍摄n组训练样本,对于每一组训练样本,都包含一张红绿蓝灯同时照射下的物体图像和三个白灯依次开启的状态下拍摄的三张物体图像;拍摄时,保持物体静止,每拍摄一组训练样本,将物体旋转1-10度再进行下一组训练样本的拍摄,待第一种待拍摄物体旋转完一圈后,更换一下一种物体;n为不低于100的自然数;
3)对所拍摄图像进行预处理:对于上步获得得每组训练样本,取其中心m×m像素大小的图像块;将截取后的白光依次照射下的三张图像取灰度值,转变为单通道图像;所述m取值100-600;
对以上处理后的图像进行归一化操作,将红绿蓝光同时照射下得图像的每一通道像素值范围由0到255归一化至0到1,成为m×m×3大小的矩阵;将白光依次照射下的三张单通道灰度图像的像素值由0到255归一化至0到1,将归一化后三张白光依次照射下的图像数据在第三维上拼接,成为m×m×3大小的矩阵;将以上两个矩阵数据重塑成两个m2×3大小的矩阵Y和W;
对所有训练样本做同样处理操作,并将所有样本处理后所得的Y和W在第一维上拼接,如果有n个训练样本组,那么拼接后得到的矩阵Yz和Wz的大小为(nm2)×3,Yz作为训练模型所需的输入数据Wz作为训练模型所需的真值;
4)利用深度学习的方法,根据输入的数据,构建一个适用于单帧图像三维重建的逐像素的全连接网络模型:
全连接网络的结构模型由11个层组成,包括输入层,输出层,和9个隐藏层,每一层都囊括需要训练的权值参数;输入层为矩阵Yz一行的3个值,输出层为矩阵Wz中对应行的3个值,输入层中的输出节点数量为2048;隐藏层1的输入节点数量为2048,输出节点数量为2045;隐藏层2至隐藏层8的输入节点数量均为2045,输出节点数量为2048;隐藏层9的输入节点数量为2048,输出节点数量为3;输出层的输入节点数量为3;在隐藏层2至隐藏层8中,重复加入了与输入层相同的数据,以减少输出层数据的过度融合并防止训练时的退化和梯度消失;
5)训练模型,初始化网络参数,利用反向传播算法不断调整优化网络参数:
通过计算相对偏差REL作为损失函数,利用损失量最小化来控制训练过程,并使其在恰当的时刻停止训练,以达到最优效果,选择当相对偏差REL小于2%时,即认为训练已经达到最有效果;
上述损失函数的计算公式为:
其中,n表示每次训练批量(batchsize)的大小,表示为一个batchsize中第i个数据的网络输出预测值,yi表示为一个batchsize中第i个数据的真值;本方法中,一个batchsize的大小为1600;为了计算各个隐藏层中的误差,使用反向传播算法来计算得到;
6)预测目标表面三维信息:将训练好的模型参数保存,并输入预测样本组数据,预测样本同样由步骤1、2的方式进行拍摄,使用同样的图像预处理步骤,将一张红绿蓝灯同时照射下的物体图像处理为m2×3的矩阵数据;经过训练好的网络的预测,输出同样m2×3大小的矩阵数据;
通过Matlab软件,将预测的m2×3的矩阵数据reshape为m×m×3大小的矩阵数据,并在第三维上拆分为预测好的三张白色灯光照射下的归一化灰度图像;
7)将三张归一化的灰度图像通过光度立体方法,求得目标表面法向,再依据积分算法得出目标表面三维信息,从而完成基于深度学习的单帧图像三维重建。
采用上述字数方案后,本发明与背景技术相比,具有如下优点:
1、本发明将深度学习算法应用于单帧图像三维重建,通过改进网络的结构,构建适用于单帧图像三维重建的网络模型,解决了单帧图像高精度三维重建问题,相比于多帧图像三维重建,应用场景将大大增加。
2、本发明基于深度学习的单帧图像三维重建方法,提高了先前单帧图像三维重建的精度及准确度,丰富了待重建物体表面的细节特征,并且本发明的方法对颜色具有鲁棒性,可应用于多种颜色的物体表面。
附图说明
图1是装置图
图2是方法流程图
图3是网络模型结构图
其中,1、支撑框架,2、高清相机,3、平行光LED面光源。
具体实施方式
基于深度学习的单帧图像三维重建装置,包括上位机,其特征在于还包括一个支撑框架1,支撑框架顶部设有一个高清相机2,围绕高清相机2设有三个平行光LED面光源3,高清相机2与各个平行光LED面光源3位于同一水平面,三个平行光LED面光源3至高清相机2的距离相等,每个平行光LED面光源3与高清相机2及其邻近的平行光LED面光源3呈120度夹角,三个平行光LED面光源3分别为白红、白绿、白蓝光源;所述高清相机2与所述上位机相连。
如图1,所述的基于深度学习的单帧图像三维重建装置,其特征在于所述支撑框架1为一个圆柱体形框架,其顶部中心固定一个高清相机2,在圆柱框架顶部每隔120度装有一个平行光LED面光源3。支撑框架1为高度1.5m,直径1.5m的圆柱体,将高清相机2固定在顶部中心处的相机固定装置上,相机连接在上位机上,由上位机控制。调节灯照射方向,将照射方向朝向圆环中心相机位置正下方,且将灯光照射方向的slant角调为26.5度。
三个平行光LED面光源灯的直径约为12cm,功率为7w,表面为磨砂玻璃,所有灯连可单独控制,设备控制器中安装有变压器,可将电压转为12V直流电压,供设备使用。相机与灯组位于同一平面。
利用本发明装置实现基于深度学习的单帧图像三维重建方法实例中,操作步骤如下:
1、利用本发明装置拍摄300组训练样本,对于每一组训练样本,都包含一张红绿蓝灯同时照射下的物体图像和三个白灯依次开启的状态下拍摄的三张物体图像,在拍摄时,需要保证物体保持静止,表面没有发生变化。将待拍摄的物体放置在相机下方框架底面,使三个灯能均匀照射。每拍摄一组训练样本,将物体旋转5度再进行下一组训练样本的拍摄,待一种物体旋转完一圈后,更换一下一种物体。这样用圆旋转的方法可以拍摄尽可能多的得到每一种物体的表面法向在红绿蓝灯和白灯下的图像。
2、对所拍设的图像进行预处理。对于上步获得得每组训练样本,取其中心400×400像素大小的图像块。进一步地,将截取后得白光依次照射下的三张图像取灰度值,转变为单通道图像。
对以上处理后的图像进行归一化操作,将红绿蓝光同时照射下得图像的每一通道像素值范围由0到255归一化至0到1,成为400×400×3大小的矩阵。将白光依次照射下的三张单通道灰度图像的像素值由0到255归一化至0到1,将归一化后三张白光依次照射下的图像数据在第三维上拼接,成为400×400×3大小的矩阵。在Matlab种通过reshape命令将以上两个矩阵数据重塑成两个160000×3大小的矩阵Y和W。
对所有训练样本做同样处理操作。并将所有样本处理后所得的Y和W在第一维上拼接,如果有a个训练样本组。那么,拼接后得到的矩阵Yz和Wz的大小为160000a×3,即160000×300×3个,Yz作为训练模型所需的输入数据Wz作为训练模型所需的真值。
3、网络模型的构建。利用深度学习的方法,根据输入的数据,构建一个适用于单帧图像三维重建的逐像素的全连接网络模型。模型结构参阅图3。全连接网络的结构模型由11个层组成,包括输入层,输出层,和9个隐藏层,每一层都囊括需要训练的权值参数。输入层为矩阵Yz一行的3个值,输出层为矩阵Wz中对应行的3个值。输入层中的输出节点数量为2048;隐藏层1的输入节点数量为2048,输出节点数量为2045;隐藏层2至隐藏层8的输入节点数量均为2045,输出节点数量为2048;隐藏层9的输入节点数量为2048,输出节点数量为3;输出层的输入节点数量为3。在隐藏层2至隐藏层8中,重复加入了与输入层数据,这样做有以下几个原因:第一,重复加入输入层数据可以减少输出层数据的过度融合;第二,重复加入输入层数据可以在一定程度上防止训练时的梯度消失问题。在每一层中,都将权值输入sigmoid激活函数进行处理。
4、训练模型,初始化网络参数,利用反向传播算法不断调整优化网络参数。在训练时,网络不断重复反向调整,需要一个尊则来衡量当前训练情况下的误差,在本发明方法中,通过计算相对偏差REL作为损失函数,利用损失量最小化来控制训练过程,并使其在恰当的时刻停止训练,以达到最优效果。在本实施例中,当相对偏差REL小于2%时,即认为训练已经达到最有效果。
上述损失函数的计算公式为:
其中,n表示每次训练的批量大小,表示为一个训练批中第i个数据的网络输出预测值,yi表示为一个训练批中第i个数据的真值。在本发明方法中,一个训练批的大小为1600。为了计算各个隐藏层中的误差,可以使用反向传播算法来计算得到。
5、预测目标表面三维信息,将训练好的模型参数保存,并输入预测样本组数据。预测样本同样由本发明装置进行拍摄,使用同样的图像预处理步骤,将一张红绿蓝灯同时照射下的物体图像处理为160000×3的矩阵数据。经过训练好的网络的预测,输出同样160000×3大小的矩阵数据。通过Matlab软件,将预测的160000×3的矩阵数据reshape为400×400×3大小的矩阵数据。并在第三维上拆分为预测好的三张白色灯光照射下的归一化灰度图像。
最后,将三张归一化的灰度图像通过光度立体方法,求得目标表面法向,再依据积分算法得出目标表面三维信息,从而完成基于深度学习的单帧图像三维重建的方法。

Claims (3)

1.基于深度学习的单帧图像三维重建装置,包括上位机,其特征在于还包括一个支撑框架(1),支撑框架顶部设有一个高清相机(2),围绕高清相机(2)设有三个平行光LED面光源(3),高清相机(2)与各个平行光LED面光源(3)位于同一水平面,三个平行光LED面光源(3)至高清相机(2)的距离相等,每个平行光LED面光源(3)与高清相机(2)及其邻近的平行光LED面光源(3)呈120度夹角,三个平行光LED面光源(3)分别为白红、白绿、白蓝光源;所述高清相机(2)与所述上位机相连。
2.如权利要求1所述的基于深度学习的单帧图像三维重建装置,其特征在于所述支撑框架(1)为一个圆柱体形框架,其顶部中心固定一个高清相机(2),在圆柱框架顶部每隔120度装有一个平行光LED面光源(3)。
3.基于深度学习的单帧图像三维重建方法,其特征在于包括以下步骤:
1)将待拍摄物体放置在高清相机正下方,在与高清相机同一水平面上,围绕高清相机设置三个平行光LED面光源,每个平行光LED面光源至高清相机的距离相等,每个平行光LED面光源与高清相机及其邻近的平行光LED面光源呈120度夹角,三个平行光LED面光源分别为白红、白绿、白蓝光源;
2)利用高清相机和平行光LED面光源拍摄n组训练样本,对于每一组训练样本,都包含一张红绿蓝灯同时照射下的物体图像和三个白灯依次开启的状态下拍摄的三张物体图像;拍摄时,保持物体静止,每拍摄一组训练样本,将物体旋转1-10度再进行下一组训练样本的拍摄,待第一种待拍摄物体旋转完一圈后,更换一下一种物体;n为不低于100的自然数;
3)对所拍摄图像进行预处理:对于上步获得得每组训练样本,取其中心m×m像素大小的图像块;将截取后的白光依次照射下的三张图像取灰度值,转变为单通道图像;所述m取值100-600;
对以上处理后的图像进行归一化操作,将红绿蓝光同时照射下得图像的每一通道像素值范围由0到255归一化至0到1,成为m×m×3大小的矩阵;将白光依次照射下的三张单通道灰度图像的像素值由0到255归一化至0到1,将归一化后三张白光依次照射下的图像数据在第三维上拼接,成为m×m×3大小的矩阵;将以上两个矩阵数据重塑成两个m2×3大小的矩阵Y和W;
对所有训练样本做同样处理操作,并将所有样本处理后所得的Y和W在第一维上拼接,如果有n个训练样本组,那么拼接后得到的矩阵Yz和Wz的大小为(nm2)×3,Yz作为训练模型所需的输入数据Wz作为训练模型所需的真值;
4)利用深度学习的方法,根据输入的数据,构建一个适用于单帧图像三维重建的逐像素的全连接网络模型:
全连接网络的结构模型由11个层组成,包括输入层,输出层,和9个隐藏层,每一层都囊括需要训练的权值参数;输入层为矩阵Yz一行的3个值,输出层为矩阵Wz中对应行的3个值,输入层中的输出节点数量为2048;隐藏层1的输入节点数量为2048,输出节点数量为2045;隐藏层2至隐藏层8的输入节点数量均为2045,输出节点数量为2048;隐藏层9的输入节点数量为2048,输出节点数量为3;输出层的输入节点数量为3;在隐藏层2至隐藏层8中,重复加入了与输入层相同的数据,以减少输出层数据的过度融合并防止训练时的退化和梯度消失;
5)训练模型,初始化网络参数,利用反向传播算法不断调整优化网络参数:
通过计算相对偏差REL作为损失函数,利用损失量最小化来控制训练过程,并使其在恰当的时刻停止训练,以达到最优效果,选择当相对偏差REL小于2%时,即认为训练已经达到最有效果;
上述损失函数的计算公式为:
<mrow> <mi>R</mi> <mi>E</mi> <mi>L</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </msubsup> <mfrac> <mrow> <mo>|</mo> <mover> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>^</mo> </mover> <mo>-</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>|</mo> </mrow> <msub> <mi>y</mi> <mi>i</mi> </msub> </mfrac> </mrow>
其中,n表示每次训练批量(batchsize)的大小,表示为一个batchsize中第i个数据的网络输出预测值,yi表示为一个batchsize中第i个数据的真值;本方法中,一个batchsize的大小为1600;为了计算各个隐藏层中的误差,使用反向传播算法来计算得到;
6)预测目标表面三维信息:将训练好的模型参数保存,并输入预测样本组数据,预测样本同样由步骤1、2的方式进行拍摄,使用同样的图像预处理步骤,将一张红绿蓝灯同时照射下的物体图像处理为m2×3的矩阵数据;经过训练好的网络的预测,输出同样m2×3大小的矩阵数据;
通过Matlab软件,将预测的m2×3的矩阵数据reshape为m×m×3大小的矩阵数据,并在第三维上拆分为预测好的三张白色灯光照射下的归一化灰度图像;
7)将三张归一化的灰度图像通过光度立体方法,求得目标表面法向,再依据积分算法得出目标表面三维信息,从而完成基于深度学习的单帧图像三维重建。
CN201711302400.8A 2017-12-10 2017-12-10 一种基于深度学习的单帧图像三维重建装置及方法 Active CN107862741B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711302400.8A CN107862741B (zh) 2017-12-10 2017-12-10 一种基于深度学习的单帧图像三维重建装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711302400.8A CN107862741B (zh) 2017-12-10 2017-12-10 一种基于深度学习的单帧图像三维重建装置及方法

Publications (2)

Publication Number Publication Date
CN107862741A true CN107862741A (zh) 2018-03-30
CN107862741B CN107862741B (zh) 2021-02-09

Family

ID=61705736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711302400.8A Active CN107862741B (zh) 2017-12-10 2017-12-10 一种基于深度学习的单帧图像三维重建装置及方法

Country Status (1)

Country Link
CN (1) CN107862741B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647554A (zh) * 2018-05-15 2018-10-12 佛山市南海区广工大数控装备协同创新研究院 一种运动鞋气垫立体二维码识别检测装置及方法
CN108876907A (zh) * 2018-05-31 2018-11-23 大连理工大学 一种面向目标对象的主动式三维重建方法
CN109948514A (zh) * 2019-03-15 2019-06-28 中国科学院宁波材料技术与工程研究所 基于单目标三维重建的工件快速识别与定位方法
CN110060212A (zh) * 2019-03-19 2019-07-26 中国海洋大学 一种基于深度学习的多光谱光度立体表面法向恢复方法
CN110288695A (zh) * 2019-06-13 2019-09-27 电子科技大学 基于深度学习的单帧图像三维模型表面重建方法
CN110599585A (zh) * 2019-08-05 2019-12-20 清华大学 基于深度学习的单图像人体三维重建方法及装置
CN111080669A (zh) * 2019-11-04 2020-04-28 北京大学 一种图像反射分离方法及装置
CN111275680A (zh) * 2020-01-18 2020-06-12 中国海洋大学 基于Gabor卷积网络的SAR图像变化检测方法
CN111652352A (zh) * 2020-05-13 2020-09-11 北京航天自动控制研究所 一种针对迁移学习的神经网络模型输入通道整合方法
CN112233142A (zh) * 2020-09-29 2021-01-15 深圳宏芯宇电子股份有限公司 目标跟踪方法、设备及计算机可读存储介质
CN113936117A (zh) * 2021-12-14 2022-01-14 中国海洋大学 基于深度学习的高频区域增强的光度立体三维重建方法
CN115035294A (zh) * 2022-06-15 2022-09-09 灵图数据(杭州)有限公司 一种冰箱温控器挡位检测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120056994A1 (en) * 2010-08-30 2012-03-08 University Of Southern California Single-shot photometric stereo by spectral multiplexing
CN103886642A (zh) * 2014-04-04 2014-06-25 北京科技大学 一种钢板表面三维重建快速实现方法
CN105654549A (zh) * 2015-12-31 2016-06-08 中国海洋大学 基于结构光技术和光度立体技术的水下三维重建装置及方法
CN105787997A (zh) * 2016-03-27 2016-07-20 中国海洋大学 水下高精度三维重建装置及方法
CN106875472A (zh) * 2017-01-16 2017-06-20 成都信息工程大学 一种3d牙齿成像建模方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120056994A1 (en) * 2010-08-30 2012-03-08 University Of Southern California Single-shot photometric stereo by spectral multiplexing
CN103886642A (zh) * 2014-04-04 2014-06-25 北京科技大学 一种钢板表面三维重建快速实现方法
CN105654549A (zh) * 2015-12-31 2016-06-08 中国海洋大学 基于结构光技术和光度立体技术的水下三维重建装置及方法
CN105787997A (zh) * 2016-03-27 2016-07-20 中国海洋大学 水下高精度三维重建装置及方法
CN106875472A (zh) * 2017-01-16 2017-06-20 成都信息工程大学 一种3d牙齿成像建模方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HIROAKI SANTO: "Deep Photometric Stereo Network", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOPS (ICCVW)》 *
YISONG LUO: "Augmenting Depth Estimation from Deep Convolutional Neural Network", 《2017 IEEE SMARTWORLD, UBIQUITOUS INTELLIGENCE & COMPUTING》 *
李健: "利用改进的彩色光度立体法实现非刚性体三维数字化", 《计算机辅助设计与图形学学报》 *
程岳: "基于光度立体的高质量表面重建研究", 《中国博士论文全文数据库-信息科技辑》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647554A (zh) * 2018-05-15 2018-10-12 佛山市南海区广工大数控装备协同创新研究院 一种运动鞋气垫立体二维码识别检测装置及方法
CN108876907A (zh) * 2018-05-31 2018-11-23 大连理工大学 一种面向目标对象的主动式三维重建方法
CN109948514A (zh) * 2019-03-15 2019-06-28 中国科学院宁波材料技术与工程研究所 基于单目标三维重建的工件快速识别与定位方法
CN110060212A (zh) * 2019-03-19 2019-07-26 中国海洋大学 一种基于深度学习的多光谱光度立体表面法向恢复方法
CN110288695A (zh) * 2019-06-13 2019-09-27 电子科技大学 基于深度学习的单帧图像三维模型表面重建方法
CN110599585A (zh) * 2019-08-05 2019-12-20 清华大学 基于深度学习的单图像人体三维重建方法及装置
CN111080669A (zh) * 2019-11-04 2020-04-28 北京大学 一种图像反射分离方法及装置
CN111080669B (zh) * 2019-11-04 2023-09-19 北京大学 一种图像反射分离方法及装置
CN111275680B (zh) * 2020-01-18 2023-05-26 中国海洋大学 基于Gabor卷积网络的SAR图像变化检测方法
CN111275680A (zh) * 2020-01-18 2020-06-12 中国海洋大学 基于Gabor卷积网络的SAR图像变化检测方法
CN111652352A (zh) * 2020-05-13 2020-09-11 北京航天自动控制研究所 一种针对迁移学习的神经网络模型输入通道整合方法
CN111652352B (zh) * 2020-05-13 2023-08-04 北京航天自动控制研究所 一种针对迁移学习的神经网络模型输入通道整合方法
CN112233142A (zh) * 2020-09-29 2021-01-15 深圳宏芯宇电子股份有限公司 目标跟踪方法、设备及计算机可读存储介质
CN113936117B (zh) * 2021-12-14 2022-03-08 中国海洋大学 基于深度学习的高频区域增强的光度立体三维重建方法
CN113936117A (zh) * 2021-12-14 2022-01-14 中国海洋大学 基于深度学习的高频区域增强的光度立体三维重建方法
CN115035294A (zh) * 2022-06-15 2022-09-09 灵图数据(杭州)有限公司 一种冰箱温控器挡位检测方法及装置

Also Published As

Publication number Publication date
CN107862741B (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
CN107862741A (zh) 一种基于深度学习的单帧图像三维重建装置及方法
CN105931179B (zh) 一种联合稀疏表示与深度学习的图像超分辨率方法及系统
CN111292264B (zh) 一种基于深度学习的图像高动态范围重建方法
CN104978580B (zh) 一种用于无人机巡检输电线路的绝缘子识别方法
CN110378408A (zh) 基于迁移学习和神经网络的电力设备图像识别方法和装置
CN105069746A (zh) 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统
CN108090403A (zh) 一种基于3d卷积神经网络的人脸动态识别方法及系统
CN109255364A (zh) 一种基于深度卷积生成对抗网络的场景识别方法
CN107609638A (zh) 一种基于线性解码器和插值采样优化卷积神经网络的方法
CN101394573B (zh) 一种基于特征匹配的全景图生成方法及系统
CN107729948A (zh) 图像处理方法及装置、计算机产品和存储介质
CN108305229A (zh) 一种基于深度学习轮廓网络的多视图重建方法
CN110853110B (zh) 一种基于生成对抗网络的图片自动调色方法
CN106930770B (zh) 基于卷积神经网络的盾构机护盾间隙估计方法
CN109255758A (zh) 基于全1*1卷积神经网络的图像增强方法
CN108230278A (zh) 一种基于生成对抗网络的图像去雨滴方法
CN107402947A (zh) 图片检索模型建立方法和装置、图片检索方法和装置
CN108681706A (zh) 一种双源遥感数据语义分割方法
CN110490968A (zh) 基于生成对抗网络的光场轴向重聚焦图像超分辨方法
CN109871778A (zh) 基于迁移学习的车道保持控制方法
CN109490861A (zh) 一种高炉料线提取方法
CN110458178A (zh) 多模态多拼接的rgb-d显著性目标检测方法
CN110490807A (zh) 图像重建方法、装置及存储介质
CN116580184A (zh) 一种基于YOLOv7的轻量化模型
CN116957931A (zh) 一种基于神经辐射场的相机图像画质提升方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210901

Address after: 266000 floor 7, Yongye building, 166 Haier Road, Laoshan District, Qingdao, Shandong

Patentee after: Chinese translation Entertainment Technology (Qingdao) Co.,Ltd.

Address before: 266100 Shandong Province, Qingdao city Laoshan District Songling Road No. 238

Patentee before: OCEAN University OF CHINA

TR01 Transfer of patent right