CN109859268A - 基于生成查询网络的物体被遮挡部分成像方法 - Google Patents
基于生成查询网络的物体被遮挡部分成像方法 Download PDFInfo
- Publication number
- CN109859268A CN109859268A CN201910088778.5A CN201910088778A CN109859268A CN 109859268 A CN109859268 A CN 109859268A CN 201910088778 A CN201910088778 A CN 201910088778A CN 109859268 A CN109859268 A CN 109859268A
- Authority
- CN
- China
- Prior art keywords
- camera
- generation
- network
- model
- inquiry network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于生成查询网络的物体被遮挡部分成像方法,包括如下步骤:(1)提供一场景图像获取子系统、一三维模型生成子系统以及一位置查找系统,场景图像获取子系统包括相机,三维模型生成子系统包括生成查询网络,位置查找子系统包括反向生成查询网络;(2)通过相机对当前实际场景进行图片采集;(3)将获得的图片序列作为生成查询网络表现层的输入;(4)将获得的图片中的残缺待补全的目标图片作为反向生成查询网络的输入;(5)将获得的目标图片的姿态信息作为所述生成查询网络生成层的输入,获得目标图片补全后的预测图片。本发明能够基于人工智能的方法,根据现有的一些图像,生成缺失部分的图像,进而形成物体的全景图。
Description
技术领域
本发明涉及人工智能及控制技术领域,具体涉及一种基于生成查询网络的物体被遮挡部分成像方法。
背景技术
在很多场景和应用中,需要观察物体的全貌。然而在某些特定的场合中,为了获取物体的全貌,不得不借助于带微小型摄像头的设备。如检查部署在地板下的线缆,检查有辐射区域或者高压区域的设备等。但是很多时候,因为遮挡和拍摄角度的现实等原因,使得摄像设备无法获取所检查物品的某部分的图像。
发明内容
本发明的目的是提供一种基于生成查询网络的物体被遮挡部分成像方法,能够基于人工智能的方法,根据现有的一些图像,生成缺失部分的图像,进而形成物体的全景图。
为实现上述发明目的,本发明提供以下的技术方案:一种基于生成查询网络的物体被遮挡部分成像方法,包括如下步骤:
(1)提供一场景图像获取子系统、一三维模型生成子系统以及一位置查找系统,所述场景图像获取子系统包括相机,所述三维模型生成子系统包括生成查询网络,所述位置查找子系统包括反向生成查询网络;
(2)通过所述相机对包含被观察物体的当前实际场景进行图片采集,形成带有空间姿态信息的图片序列;
(3)将步骤(2)获得的图片序列作为所述生成查询网络表现层的输入,生成与当前实际场景相互映射的三维模型;
(4)将步骤(2)获得的图片中的残缺待补全的目标图片作为所述反向生成查询网络的输入,获得目标图片的姿态信息;
(5)将步骤(4)获得的目标图片的姿态信息作为所述生成查询网络生成层的输入,获得目标图片补全后的预测图片。
优选的,通过在不同拍摄姿态间切换的一台相机或分别处于不同拍摄姿态的多台相机获取当前场景的图片序列。
优选的,所述相机为单目相机。
优选的,带有空间姿态信息的图片序列其中,i∈{1,…,N},k∈{1,…,K},i是数据中场景的数目,k是每个场景中图片的数目,是拍摄方位信息,是从拍摄方位拍摄到的图像。
优选的,拍摄方位用五个维度的向量(pos_x,pos_y,pos_z,yaw,pitch)表示,pos_x表示相机在三维坐标系中的X轴位置,pos_y表示相机在三维坐标系中的Y轴位置,pos_z表示相机在三维坐标系中的Z轴位置,yaw表示相机的偏航角,pitch表示相机的俯仰角。
优选的,所述生成查询网络选用值逼近方法,即最小化上界,作为代价函数,采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数,即所述生成查询网络的损失函数公式为:
其中,
θ是模型的待训练的参数;
表示当前函数有两个参数,分别为θ和φ;
(x,v)~D是待训练的准备数据D;
z~qφ表示来自qφ的高维隐变量;
表示在D和qφ的条件下的期望;
gθ(x|z,vq,r):生成模型,在隐变量z,视角v,从D中采样本处理后的r的条件下,生成的分布x,其参数为θ,在公式中为g;
πθ(z|vq,r):先验模型,在视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为θ,在公式中为π;
qφ(z|xq,vq,r):推理模型,在预测图片xq,视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为φ,在公式中为q;
l表示把隐变量z分成L组变成zl,其中l∈[1,L];
中η是卷积网络,将其输入uL映射到高斯分布的均值g,其中u0表示模型的初始状态;
相当于即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型;
表示取该模型的负对数;
相当于即在预测图片分布xq,视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下的推理模型,其中是推理模型的初始状态;
相当于即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型,其中,表示生成模型的初始状态;
中KL用来表示两个模型的相似度,也称KL散度;
将模型的所有KL散度相加求和;
求取期望。
优选的,所述反向生成查询网络中,目标图片与其所在环境E和相机的姿态P有关,在此情况下,获得的图像表示为Pr(X|P,E),而预先的环境通过图片序列和获取的摄像头的姿态来感知,用C={xi,pj}来表示图片和相机姿态,用C来建立场景预估模型Z是隐变量:
把一个训练好的生成查询网络作为相似度函数,给出一个优先的相机姿态Pr(P|C),定位问题就可以通过最大化后验概率来解决,argmax表示取当前最大的概率:
这样,就能计算出拍摄该目标图片的相机在场景模型中位置,在场景中进行绝对定位,获取该位置信息。
由于上述技术方案运用,本发明与现有技术相比具有以下优点:本发明公开的基于生成查询网络的物体被遮挡部分成像方法,是计算机视觉领域的方法,具体来说是利用生成查询网络对图像进行补全的办法。本发明涉及生成查询网络和反向生成查询网络,获取环境信息,自我学习,可以实现图像补全。利用生成查询网络对图像生成场景再生成图像的特性,结合显示网络(representation network)、生成网络(generation network)和反向生成查询网络,集成一套完整的图片补全方法。
附图说明
图1为本发明公开的基于生成查询网络的物体被遮挡部分成像方法的流程图;
图2为本发明公开的生成查询网络的结构图;
图3为本发明公开的反向生成查询网络的结构图;
图4为本发明公开的生成查询网络的表现层网络架构;
图5为本发明公开的生成查询网络的生成层网络核心架构。
具体实施方式
下面结合本发明的原理、附图以及实施例对本发明进一步描述
参见图1至图5,如其中的图例所示,一种基于生成查询网络的物体被遮挡部分成像方法,包括如下步骤:
(1)提供一场景图像获取子系统、一三维模型生成子系统以及一位置查找系统,上述场景图像获取子系统包括相机,上述三维模型生成子系统包括生成查询网络,上述位置查找子系统包括反向生成查询网络,上述相机为单目相机;
(2)通过上述相机对包含被观察物体的当前实际场景进行图片采集,形成带有空间姿态信息的图片序列,通过在不同拍摄姿态间切换的一台相机或分别处于不同拍摄姿态的多台相机获取当前场景的图片序列,带有空间姿态信息的图片序列其中,i∈{1,…,N},k∈{1,…,K},i是数据中场景的数目,k是每个场景中图片的数目,是拍摄方位信息,是从拍摄方位拍摄到的图像,拍摄方位用五个维度的向量(pos_x,pos_y,pos_z,yaw,pitch)表示,pos_x表示相机在三维坐标系中的X轴位置,pos_y表示相机在三维坐标系中的Y轴位置,pos_z表示相机在三维坐标系中的Z轴位置,yaw表示相机的偏航角,pitch表示相机的俯仰角;
(3)将步骤(2)获得的图片序列作为上述生成查询网络表现层的输入,生成与当前实际场景相互映射的三维模型;
(4)将步骤(2)获得的图片中的残缺待补全的目标图片作为上述反向生成查询网络的输入,获得目标图片的姿态信息;
(5)将步骤(4)获得的目标图片的姿态信息作为上述生成查询网络生成层的输入,获得目标图片补全后的预测图片。
上文中,上述生成查询网络选用值逼近方法,即最小化上界,作为代价函数,采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数,即所述生成查询网络的损失函数公式为:
其中,
θ是模型的待训练的参数;
表示当前函数有两个参数,分别为θ和φ;
(x,y)~D是待训练的准备数据D;
z~qφ表示来自qφ的高维隐变量;
表示在D和qφ的条件下的期望;
gθ(x|z,vq,r):生成模型,在隐变量z,视角v,从D中采样本处理后的r的条件下,生成的分布x,其参数为θ,在公式中为g;
πθ(z|vq,r):先验模型,在视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为θ,在公式中为π;
qφ(z|xq,vq,r):推理模型,在预测图片xq,视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为φ,在公式中为q;
l表示把隐变量z分成L组变成zl,其中l∈[1,L];
中η是卷积网络,将其输入uL映射到高斯分布的均值g,其中u0表示模型的初始状态;
相当于即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型;
表示取该模型的负对数;
相当于即在预测图片分布xq,视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下的推理模型,其中是推理模型的初始状态;
相当于即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型,其中,表示生成模型的初始状态;
中KL用来表示两个模型的相似度,也称KL散度;
将模型的所有KL散度相加求和;
求取期望。
上文中,上述反向生成查询网络中,目标图片与其所在环境E和相机的姿态P有关,在此情况下,获得的图像表示为Pr(X|P,E),而预先的环境通过图片序列和获取的摄像头的姿态来感知,用C={xi,pi}来表示图片和相机姿态,用C来建立场景预估模型Z是隐变量:
把一个训练好的生成查询网络作为相似度函数,给出一个优先的相机姿态Pr(P|C),定位问题就可以通过最大化后验概率来解决,argmax表示取当前最大的概率:
这样,就能计算出拍摄该目标图片的相机在场景模型中位置,在场景中进行绝对定位,获取该位置信息。
本发明提供一种的图片缺失部分补全方法,输入带缺失部分的图像,生成完全的图像。这种方法解决了传统机器学习和一般神经网络学习下生成图像精度不高的问题,基于生成查询网络网络,采用人工智能的方法补全图片。
基于生成查询网络的缺失部分图像生成的方法,包括多个步骤,场景数据准备,是针对目标图片所在的场景拍摄的一系列的照片,也就是作为生成查询网络的输入的图片序列。生成查询网络训练后,内部生成该图片序列的场景模型,供后期使用。此时输入待补全的目标图片。使用反向生成查询网络计算出待补全的目标图片的拍摄位置信息,然后将位置信息再次输入到生成查询网络,输出预测图片,即是目标图片的补全图片。详细步骤如下:
步骤一:场景数据准备
在一个场景中,使用摄像机拍摄一系列的照片。且是多角度的拍摄同个场景,所拍摄的照片越多后期图片补全的效果越好。所拍摄的照片同时要带有五个维度的信息,这五个维度分别是摄像机的X轴,摄像机的Y轴,摄像机的Z轴,摄像机的俯仰角(pitch)和摄像机的偏航角(yaw)。这五个维度表示的是该张照片被拍摄时摄像机的方位以及角度。也就是说每张照片与摄像机的姿态一一对应。而这一系列照片形成的照片集合被称为照片序列,它所包括的内容有照片和摄像机的姿态,整个照片序列作为生成查询网络的训练数据。对于该序列,使用来表示,其中,i∈{,…,N},k∈{1,…,K},N是数据中场景的数目,K是每个场景中记录的图片的数目,是从视角拍摄到的图像。其中,用五个维度的向量(pos_x,pos_y,pos_z,yaw,pitch表示,其中pos_x是摄像机的X轴坐标,pos_y是摄像机的Y轴坐标,pos_z是摄像机的Z轴坐标,yaw表示摄像机的偏航角(yaw),pitch表示摄像机的俯仰角(pitch)。
步骤二:生成查询网络生成模型
在条件生成模型中,由于交叉熵作为代价函数需要对高维度的隐变量进行积分过于困难,所以选用值逼近方法,即最小化上界,作为代价函数。
采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数。损失函数技术方式如下:
观察到的训练样本模型:
后验因子:
先验因子:
后验样本:
其中,是值逼近中的最小化上界方法,用来替代难以优化的交叉熵代价函数。θ是模型参数;xq表示预测的图片;是六层卷积网络,[k=2,s=2]->[k=3,s=1]->[k=2,s=2]->[k=3,s=1]->[k=3,s=1]->[k=3,s=1],其中k表示卷积核,s表示步长,为将输入映射到高斯分布的均值。是六层卷积网络,[k=2,s=2]->[k=3,s=1]->[k=2,s=2]->[k=3,s=1]->[k=3,s=1]->[k=3,s=1],其中k表示卷积核,s表示步长将各自的输入映射到高斯分布的充分统计量(标准差和均值)。是卷积网络,卷积核为2x2,步长2x2,将推理网络状态映射到隐变量的变分后验的充分统计。
训练完成即可将元输入的二维图片序列生成一个三维场景模型。
步骤三:输入信息残缺待补全的图片
输入一张信息残缺待补全的图片,该图片作为输入,被称为目标图片。
步骤四:反向生成查询网络查找位置
把目标图片作为反向生成查询网络的输入,我们需要得到反向生成查询网络的结果,即拍摄该图片在场景模型中的位置信息,包括摄像机的X轴、Y轴、Z轴,摄像机的偏航角和俯仰角。也就是数据准备阶段的信息量
定位问题可以作为包含概率的推理任务进行处理。在所在的环境E中,目标图片X,目标图片与环境E和摄像机的姿态P有关,在此情况下,获得的图像可表示为Pr(X|P,E)。而预先的环境只能通过图片序列和获取的摄像头的姿态来感知,所以用C={xi,pi}来表示图片和摄像机姿态。用C来建立场景预估模型Z是隐变量:
把一个训练好的生成查询网络作为相似度函数,给出一个优先的摄像机姿态Pr(P|C),定位问题就可以通过最大化后验概率来解决,argmax表示取当前最大的概率:
这样,就能计算出拍摄该目标图片的摄像机在场景模型中位置,在场景中进行绝对定位,获取该位置信息。
步骤五:生成查询网络位置信息输入
基于已经训练完成的生成查询网络,输入是位置信息,输出是该位置信息下拍摄的图片。
生成查询网络中分为表现层和生成层,表现层负责场景建模表达,生成层负责图片预测。而得到的位置信息作为生成查询网络中生成层的输入,就可以得到在此位置下所拍摄的场景的预测照片。
步骤六:输出补全图片
基于训练完成的生成查询网络,输入位置信息,输出在此位置下拍摄场景模型的照片。该照片与原目标图片相比,补全缺失的信息。
基于生成查询网络的物体被遮挡部分成像的方法,与传统办法完成图像补全任务相比,涉及到维度的转化,降维的过程中带有更多信息,更适合做图片补全的任务。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (7)
1.一种基于生成查询网络的物体被遮挡部分成像方法,其特征在于,包括如下步骤:
(1)提供一场景图像获取子系统、一三维模型生成子系统以及一位置查找系统,所述场景图像获取子系统包括相机,所述三维模型生成子系统包括生成查询网络,所述位置查找子系统包括反向生成查询网络;
(2)通过所述相机对包含被观察物体的当前实际场景进行图片采集,形成带有空间姿态信息的图片序列;
(3)将步骤(2)获得的图片序列作为所述生成查询网络表现层的输入,生成与当前实际场景相互映射的三维模型;
(4)将步骤(2)获得的图片中的残缺待补全的目标图片作为所述反向生成查询网络的输入,获得目标图片的姿态信息;
(5)将步骤(4)获得的目标图片的姿态信息作为所述生成查询网络生成层的输入,获得目标图片补全后的预测图片。
2.根据权利要求1所述的基于生成查询网络的物体被遮挡部分成像方法,其特征在于,通过在不同拍摄姿态间切换的一台相机或分别处于不同拍摄姿态的多台相机获取当前场景的图片序列。
3.根据权利要求1所述的基于生成查询网络的物体被遮挡部分成像方法,其特征在于,所述相机为单目相机。
4.根据权利要求1所述的基于生成查询网络的物体被遮挡部分成像方法,其特征在于,带有空间姿态信息的图片序列其中,i∈{1,…,N},k∈{1,…,K},i是数据中场景的数目,k是每个场景中图片的数目,是拍摄方位信息,是从拍摄方位拍摄到的图像。
5.根据权利要求1所述的基于生成查询网络的物体被遮挡部分成像方法,其特征在于,拍摄方位用五个维度的向量表示,表示相机在三维坐标系中的X轴位置,pos_y表示相机在三维坐标系中的Y轴位置,表示相机在三维坐标系中的Z轴位置,yaw表示相机的偏航角,pitch表示相机的俯仰角。
6.根据权利要求1所述的基于生成查询网络的物体被遮挡部分成像方法,其特征在于,所述生成查询网络选用值逼近方法,即最小化上界,作为代价函数,采用小批量自适应梯度下降的更新方式更新参数,即将训练集划分为很多批,对每一批计算误差并更新参数,即所述生成查询网络的损失函数公式为:
其中,
θ是模型的待训练的参数;
表示当前函数有两个参数,分别为θ和φ;
(x,v)~D是待训练的准备数据D;
z~qφ表示来自qφ的高维隐变量;
表示在D和qφ的条件下的期望;
gθ(x|z,vq,r):生成模型,在隐变量z,视角v,从D中采样本处理后的r的条件下,生成的分布x,其参数为θ,在公式中为g;
πθ(z|vq,r):先验模型,在视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为θ,在公式中为π;
qφ(z|xq,vq,r):推理模型,在预测图片xq,视角v,从D中采样本处理后的r的条件下,生成的隐变量z,其参数为φ,在公式中为q;
l表示把隐变量z分成L组变成zl,其中l∈[1,L];
中η是卷积网络,将其输入uL映射到高斯分布的均值g,其中u0表示模型的初始状态;
相当于即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型;
表示取该模型的负对数;
相当于即在预测图片分布xq,视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下的推理模型,其中是推理模型的初始状态;
相当于即在视角v,从D中采样本处理后的r的条件,生成的隐变量z的组小于l下,对预测图片分布xq的先验模型,其中,表示生成模型的初始状态;
中KL用来表示两个模型的相似度,也称KL散度;
将模型的所有KL散度相加求和;
求取期望。
7.根据权利要求1所述的基于生成查询网络的物体被遮挡部分成像方法,其特征在于,所述反向生成查询网络中,目标图片与其所在环境E和相机的姿态P有关,在此情况下,获得的图像表示为Pr(X|P,E)4,而预先的环境通过图片序列和获取的摄像头的姿态来感知,用C={xi,pi}来表示图片和相机姿态,用C来建立场景预估模型Z是隐变量:
把一个训练好的生成查询网络作为相似度函数,给出一个优先的相机姿态Pr(P|C),定位问题就可以通过最大化后验概率来解决,argmax表示取当前最大的概率:
这样,就能计算出拍摄该目标图片的相机在场景模型中位置,在场景中进行绝对定位,获取该位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910088778.5A CN109859268B (zh) | 2019-01-30 | 2019-01-30 | 基于生成查询网络的物体被遮挡部分成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910088778.5A CN109859268B (zh) | 2019-01-30 | 2019-01-30 | 基于生成查询网络的物体被遮挡部分成像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109859268A true CN109859268A (zh) | 2019-06-07 |
CN109859268B CN109859268B (zh) | 2022-06-14 |
Family
ID=66896992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910088778.5A Active CN109859268B (zh) | 2019-01-30 | 2019-01-30 | 基于生成查询网络的物体被遮挡部分成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109859268B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113012052A (zh) * | 2019-12-19 | 2021-06-22 | 浙江商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230240A (zh) * | 2017-12-31 | 2018-06-29 | 厦门大学 | 一种基于深度学习获取图像城市范围内位置及姿态的方法 |
CN108564527A (zh) * | 2018-04-04 | 2018-09-21 | 百度在线网络技术(北京)有限公司 | 基于神经网络的全景图内容补全和修复的方法及装置 |
CN109063301A (zh) * | 2018-07-24 | 2018-12-21 | 杭州师范大学 | 一种基于热力图的单幅图像室内物体姿态估计方法 |
-
2019
- 2019-01-30 CN CN201910088778.5A patent/CN109859268B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230240A (zh) * | 2017-12-31 | 2018-06-29 | 厦门大学 | 一种基于深度学习获取图像城市范围内位置及姿态的方法 |
CN108564527A (zh) * | 2018-04-04 | 2018-09-21 | 百度在线网络技术(北京)有限公司 | 基于神经网络的全景图内容补全和修复的方法及装置 |
CN109063301A (zh) * | 2018-07-24 | 2018-12-21 | 杭州师范大学 | 一种基于热力图的单幅图像室内物体姿态估计方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113012052A (zh) * | 2019-12-19 | 2021-06-22 | 浙江商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109859268B (zh) | 2022-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106251399B (zh) | 一种基于lsd-slam的实景三维重建方法及实施装置 | |
JP5244951B2 (ja) | 3d空間次元に基づく画像処理のための装置およびシステム | |
CN103873758B (zh) | 全景图实时生成的方法、装置及设备 | |
CN106534616B (zh) | 一种基于特征匹配与运动补偿的视频稳像方法及系统 | |
CN108470370A (zh) | 三维激光扫描仪外置相机联合获取三维彩色点云的方法 | |
CN109858437B (zh) | 基于生成查询网络的行李体积自动分类方法 | |
CN111402412A (zh) | 数据采集方法及装置、设备、存储介质 | |
CN113205560A (zh) | 多深度相机的标定方法、装置、设备及存储介质 | |
CN113205595A (zh) | 一种3d人体姿态估计模型的构建方法及其应用 | |
KR20170046140A (ko) | 얼굴 이미지 편집 방법 및 디바이스 | |
CN110517304A (zh) | 生成深度图的方法、装置、电子设备和存储介质 | |
CN112183506A (zh) | 一种人体姿态生成方法及其系统 | |
KR20190040746A (ko) | 3차원 관심영역 복원 시스템 및 방법 | |
WO2023116430A1 (zh) | 视频与城市信息模型三维场景融合方法、系统及存储介质 | |
CN110717936A (zh) | 一种基于相机姿态估计的图像拼接方法 | |
CN114036969A (zh) | 一种多视角情况下的3d人体动作识别算法 | |
CN110378250A (zh) | 用于场景认知的神经网络的训练方法、装置及终端设备 | |
CN109788270A (zh) | 3d-360度全景图像生成方法及装置 | |
CN117274501B (zh) | 一种可驱动数字人建模方法、装置、设备及介质 | |
CN113065506B (zh) | 一种人体姿态识别方法及系统 | |
CN112365589B (zh) | 一种虚拟三维场景展示方法、装置及系统 | |
CN109859268A (zh) | 基于生成查询网络的物体被遮挡部分成像方法 | |
CN117152829A (zh) | 一种多视图自适应骨架网络的工业装箱动作识别方法 | |
CN111161143A (zh) | 一种光学定位技术辅助的手术视野全景拼接方法 | |
CN110490973A (zh) | 一种模型驱动的多视图鞋模型三维重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |