CN110276791A - 一种参数可配置的深度相机仿真方法 - Google Patents

一种参数可配置的深度相机仿真方法 Download PDF

Info

Publication number
CN110276791A
CN110276791A CN201910576884.8A CN201910576884A CN110276791A CN 110276791 A CN110276791 A CN 110276791A CN 201910576884 A CN201910576884 A CN 201910576884A CN 110276791 A CN110276791 A CN 110276791A
Authority
CN
China
Prior art keywords
depth
coordinate
noise
value
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910576884.8A
Other languages
English (en)
Other versions
CN110276791B (zh
Inventor
赵永嘉
张茜
戴树岭
雷小永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beifei Zhihang Zhejiang Technology Co ltd
Original Assignee
Beijing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Aeronautics and Astronautics filed Critical Beijing University of Aeronautics and Astronautics
Priority to CN201910576884.8A priority Critical patent/CN110276791B/zh
Publication of CN110276791A publication Critical patent/CN110276791A/zh
Application granted granted Critical
Publication of CN110276791B publication Critical patent/CN110276791B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开一种参数可配置的深度相机仿真方法,首先获取3D场景、深度相机的内部参数和噪声分布;根据3D场景和内部参数获取正常点视点坐标、纹理信息、红外线与物体表面法线的夹角。根据纹理信息和红外线与物体表面法线的夹角,进行遮罩处理,设置遮罩处理区域的可见空间点深度值缺失,并更改相应屏幕点的坐标信息;并对经过遮罩处理后屏幕点的坐标进行逆变换,得到屏幕点在世界坐标系下的计算深度值;随后根据噪声分布,获取深度相机轴向和径向深度噪声分布信息;并将获取的计算深度值和深度噪声分布信息合成最终的深度信息。最后将虚拟相机获取的最终深度值利用颜色索引条,结合空间点的像素坐标逐一赋予颜色信息,得到深度图像并输出深度数据。

Description

一种参数可配置的深度相机仿真方法
技术领域
本发明涉及虚拟现实技术、仿真技术,设计一种深度相机仿真方法,具体来说是一种参数可配置的深度相机仿真方法。
背景技术
深度相机是建立在视觉应用中的重要传感器,在无人驾驶、计算机领域、机器人领域以及无人机导航等起着重要的作用。为了确保相关算法在实际执行时的效果和安全性,需要对其进行充分大量的测试,采用深度相机的测试,多依赖于真实的场景或经过记录的视频,尽管可信性强,但样本单一,真值获取困难,难以适应真实场景的复杂性和变化性。
随着计算机处理能力的提高以及计算机图形学的发展,基于计算机图形学和虚拟现实技术的深度相机仿真方法,在基于深度相机的计算机视觉应用算法测试中起到了越来越重要的作用。由此构建的基于虚拟深度相机的测试方法,大幅提高了相关算法的测试效率,降低了测试成本,具有很强的应用价值。
但目前,已有的深度相机仿真方法主要存在如下问题:
1、当前的深度相机仿真多实现了深度相机的机理,但没有针对深度相机的实现原理进行充分的仿真;
2、已有的深度相机仿真方法扩展性差,而且未能综合考虑相机的参数以及噪声分布等影响。
发明内容
本发明为了解决深度相机的深度相机实现原理仿真不够充分、可扩展性不够强、噪声模拟不够真实的问题,提出了一种参数可配置的深度相机仿真方法,主要包括以下几个步骤:
步骤一:构建3D场景,输入深度相机参数和深度相机的噪声分布。
步骤二:根据构建的3D场景和深度相机参数,获取空间点归一化设备坐标及空间点的像素坐标,并获取3D场景中物体表面法线数据信息,同时计算红外线与物体表面法线的夹角。
步骤三:获取3D场景的材质信息,并根据步骤二中获取的红外线与物体表面法线的夹角,对红外线不能照射的区域进行遮罩处理,设置遮罩处理区域的可见空间点深度值缺失,并更改相应空间点在归一化设备坐标系下的深度值。
步骤四:对经过遮罩函数处理后空间点的空间点的在归一化设备坐标系下的坐标进行逆变换,得到空间点在世界坐标系下的真实深度值。
步骤五:根据输入的深度相机的噪声分布图,获取深度相机在轴向和径向方向的深度偏差信息,并合成为虚拟深度相机得到的空间点的深度值。
步骤六:按照输入的输出深度图的类型,将虚拟相机获取的最终深度值利用颜色索引条,结合空间点的像素坐标逐一赋予颜色信息,得到深度图像并输出深度数据。
本发明具有以下优点:
1、本发明参数可配置的深度相机仿真方法,在实现深度相机肌理的同时对深度相机的实现原理进行了充分的仿真,使深度相机仿真的可靠性更强;
2、本发明参数可配置的深度相机仿真方法,读取深度相机的深度噪声分布图或者分布曲线获取深度相机的深度噪声信息,在一定程度上减小了深度相机仿真的复杂度,并保证深度相机仿真的真实性;
3、本发明参数可配置的深度相机仿真方法,虚拟深度相机参数可配置,可以对视场角、分辨率、输出深度图类型,、最佳工作范围等参数进行设置,提高了虚拟深度相机的通用性和可扩展性;
4、参数可配置的深度相机仿真方法,在输出深度数据的同时提供输出彩色深度图和灰阶深度图两种选择,为基于深度相机的计算机视觉应用算法测试提供所需的深度信息展示形式。
附图说明
图1为本发明参数可配置的深度相机仿真方法流程图。
图2为本发明参数可配置的深度相机仿真方法中顶点处理流程示意图。
图3为本发明参数可配置的深度相机仿真方法中深度相机透视投影及坐标定义示意图。
图4为本发明参数可配置的深度相机仿真方法中深度噪声获取示意图。
图5为本发明参数可配置的深度相机仿真方法中由深度值获取深度图的示意图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明参数可配置的深度相机仿真方法,如图1所示,具体步骤如下:
步骤一:构建3D场景,输入深度相机参数和深度相机的噪声分布;
深度相机的构建依托于Unity引擎,在Unity中构建3D场景,并设计UI界面与虚拟深度相机的参数输入接口,虚拟深度相机通过参数输入接口获取在UI界面输入的深度相机参数和深度相机的噪声分布。其中,深度相机参数主要包括FOV(包括水平视场角和垂直视场角)、分辨率、焦距、输出深度图的类型(包括彩色深度图和灰阶深度图)、红外线的反射属性以及深度相机的最佳工作范围。在本发明实施例中深度相机的噪声分布主要涉及轴向相关的深度噪声曲线和径向相关的深度噪声分布图。
步骤二:进行顶点处理,根据Unity引擎中构建的3D场景和深度相机参数,获取空间点归一化设备坐标及像素坐标,并获取3D场景中物体表面法线数据信息,同时计算红外线与物体表面法线的夹角,如图2所示。
首先根据Unity引擎中构建的3D场景,获取空间点的世界坐标;
其次,将空间点的世界坐标结合深度相机参数进行坐标变换,得到空间点的像素坐标。坐标变换的具体过程如下:
空间点先从世界坐标系转换到透视投影空间坐标系下,变换过程如下:
Pclip=PwordMvMp (1)
式中,Pclip为空间点在透视投影空间坐标系下的坐标,Pword为空间点在世界坐标系下的坐标,Mv为视图变换矩阵,Mp为透视投影变换矩阵。
上述Mv的计算过程如下:
设虚拟深度相机在世界坐标系下的位置为Pcam,垂直于摄像机向上的方向为V以及任一空间点P,则有:
透视投影变换矩阵Mp的计算过程如下:
根据输入的深度相机参数,包括水平视场角α、垂直视场角β、分辨率Res、深度相机的最佳工作范围的最近深度zn和最远深度zf,如图3所示,在视锥体近裁剪面上建立坐标系,其中坐标原点为相机光轴与近裁剪面的交点,设近裁剪面与坐标系轴的交点的所在轴坐标分别为a、b、c、d,则透视投影变换矩阵Mp
式(3)中,a、b、c、d满足:
透视投影变换之后进行裁剪变换并进行透视除法得到空间点归一化设备坐标(xndc yndc zndc)T。结合获取的深度相机的分辨率Res=Wp×Hp(Wp代表屏幕宽,Hp代表屏幕高,单位都为像素数),设(x,y)为视窗的左下角坐标,则空间点的像素坐标(xs,ys)为
最后,为虚拟深度相机构建红外线发射装置,并利用着色器直接获取3D场景中物体表面法线数据信息,根据3D场景空间点的世界坐标,经过夹角运算得到深度相机发出的红外线与物体表面的夹角θ为:
其中,代表物体表面的法线方向,代表红外线的方向。
步骤三:利用着色器获取的3D场景的材质信息,并根据步骤二中获取的红外线与物体表面法线的夹角θ,对红外线不能照射的区域进行遮罩处理,以确定虚拟深度相机获取的该区域的可见空间点的深度值缺失,更改相应空间点在归一化设备坐标系下的深度值。
当深度相机发射的红外线与物体发生碰撞时,对于与每一根红外线发生碰撞的平面的角度和位置进行记录,位于该红外线延长线上的空间点组成的区域都属于红外线被遮挡区域,设置红外线被遮挡区域的空间点的深度信息缺失;由于物体表面的材质属性,部分材质会对深度相机产生的红外线产生高光反射,当具有反射性强的材质的物体尤其是玻璃材质与深度相机的距离D位于一定范围[D1,D2]内时,物体表面的产生存在深度信息缺失的圆形区域,设区域半径为r。在本发明实施例中仅对在玻璃材质的物体表面产生的深度信息缺失的圆形区域大小进行规定如下:
其中k为比例系数,r0为D1处的深度信息缺失的圆形区域半径。
当3D场景中物体表面的点存在深度信息缺失时,遮罩函数值M定义为0;当3D场景中物体表面的点不存在深度信息缺失时,遮罩函数值M定义为1。以下是本发明实施例中遮罩函数M的定义:
式中,P代表3D场景中物体表面的点,P∈OccludedScale代表点P位于红外线被遮挡区域,P∈GlossScale代表点P位于物体表面的高光反射区域。
将空间点的深度值与遮罩函数进行与运算,使深度信息缺失的区域的空间点的深度值全设置为0,而其余空间点的深度值保持不变。
步骤四:对经过遮罩函数处理后空间点的在归一化设备坐标系下的坐标进行逆变换,得到空间点在世界坐标系下的真实深度值。
根据步骤二,空间点从世界坐标系到归一化设备坐标的转换关系,先进行透视除法逆变换得到可见空间点在透视投影空间下的坐标Pclip
则世界坐标系下的坐标为Pword=Pclip(MvMp)-1。根据Pword可直接获取场景中视角范围内可见物体表面点的真实深度信息d0
步骤五:根据输入的深度相机的噪声分布图,获取深度相机在轴向和径向方向的深度偏差信息,并合成为虚拟深度相机得到的空间点的深度值;
如图4所示,本发明实施例中,选取轴向相关的深度噪声曲线图和径向相关的深度噪声分布图输入到Unity引擎中设计的深度相机噪声处理接口,同时输入每个深度噪声曲线图的横纵坐标的取值范围,并进行对应的转换:
轴向相关的深度噪声曲线图为沿相机光轴方向的不同距离L处的红外线与物体表面法线之间的角度θ(°)和轴向深度偏差σA(mm)之间的关系曲线。编写脚本和着色器将输入的轴向噪声曲线图转换为二维纹理图片,读取图片左下角和右上角的纹理坐标值,分别设为 (u1,v1)和(u2,v2),建立一个二维数组A,将图片上出现的每一条曲线的颜色对应记录其代表的距离值L的大小。设深度噪声曲线图的横纵坐标的取值范围为[a1,a2]和[b1,b2]。根据步骤四计算得到的空间点的真实深度信息d0以及红外线与3D物体表面法线之间的夹角θ,按如下方法查找对应的轴向深度偏差σA(mm):
首先,根据空间点P的真实深度信息d0,查找二维数组A,找到与d0在距离值上相同的曲线颜色C1或者与d0在距离值上最相近的两条曲线对应的颜色C2和C3
其次,红外线与3D物体表面法线之间的夹角θ的轴向噪声偏差为σA,则此时对应轴向深度噪声曲线图的纹理坐标(u,v)的横坐标计算如下:
当d0恰好找到相同距离的噪声曲线,结合曲线颜色为C1和u的大小找到对应的纹理坐标的纵坐标值v;
当d0找不到相同距离的噪声曲线时,结合找到的两条最相近曲线颜色C2和C3、这两条曲线对应的距离值为L1和L2,找到两条曲线上对应的横坐标为u的点的纵坐标分别设为h1和 h2(h1<h2),则d0对应的纹理纵坐标值可估算为:
最后,根据纹理坐标的纵坐标u值,计算得到轴向深度偏差值σA
在轴向上的噪声分布可近似为高斯分布,根据偏差值获得该空间点的深度噪声分布为 N(0,σA),在[b1,b2]范围内获取符合该分布的一个随机轴向深度噪声值d1
径向相关的深度噪声分布图为垂直于相机光轴的平面上径向深度偏差σB(mm)的关系分布图。获取Unity设置的相应接口输入的颜色索引条的取值范围[e1,e2],空间点P的像素坐标(m,n),分别将颜色索引条和径向先关的噪声分布图转换为Unity中的二维纹理图片,利用与获取轴向深度偏差值σA相似方法,获取径向深度偏差值σB,具体过程如下:
首先,根据空间P的像素坐标(m,n)求取对应径向噪声分布图中的对应纹理坐标。设径向噪声分布图对应纹理坐标的左上角坐标和右下角坐标分别为(r1,s1)和(r2,s2),则空间点P的像素坐标对应径向噪声分布图中的纹理坐标(p,q)有
其中,Wp和Hp由深度相机的分辨率得到,Wp代表屏幕宽,Hp代表屏幕高,单位都为像素数。
其次,根据空间点的像素坐标对应的径向噪声分布图中的纹理坐标(p,q),直接读取该坐标处的颜色值C4
最后,根据C4,检索颜色检索条中对应的纹理坐标值(i,j)以及颜色索引条的取值范围 [w1,w2],设颜色检索条的右上角右下角的二维纹理纵坐标分别为e1和e2,计算径向偏差值σB
在径向上的噪声分布可近似为高斯分布,根据偏差值获得空间点的深度噪声分布为 N(0,σB),在[w1,w2]范围内获取符合该分布的一个随机径向深度噪声值d2
将得到的随机轴向噪声值d1和随机径向噪声值d2,结合步骤四获得的世界坐标系下的真实深度值d0,进行虚拟深度相机获取的深度值d的合成:
d=d0+d1+d2。 (14)
步骤六:按照输入的输出深度图的类型,将虚拟相机获取的最终深度值利用颜色索引条,结合空间点的像素坐标逐一赋予颜色信息,得到深度图像并输出深度数据。
如图5所示,根据深度虚拟相机的使用者输入的深度图输出类型,可以选择性输出彩色深度图像和灰阶深度图像。建立深度值的大小与颜色之间的对应关系,为每个深度值对应的空间点像素坐标赋予RGB信息,最终进行显示,得到深度图。

Claims (9)

1.一种参数可配置的深度相机仿真方法,其特征在于:具体步骤为:
步骤一:构建3D场景,输入深度相机参数和深度相机的噪声分布;
步骤二:根据构建的3D场景和深度相机参数,获取空间点归一化设备坐标及空间点的像素坐标,并获取3D场景中物体表面法线数据信息,同时计算红外线与物体表面法线的夹角;
步骤三:获取3D场景的材质信息,并根据步骤二中获取的红外线与物体表面法线的夹角,对红外线不能照射的区域进行遮罩处理,设置遮罩处理区域的可见空间点深度值缺失,并更改相应空间点在归一化设备坐标系下的深度值;
步骤四:对经过遮罩函数处理后空间点的在归一化设备坐标系下的坐标进行逆变换,得到空间点在世界坐标系下的真实深度值;
步骤五:根据输入的深度相机的噪声分布,获取深度相机在轴向和径向方向的深度偏差信息,并合成虚拟深度相机最终获取的深度值。
步骤六:按照输入的输出深度图的类型,将虚拟相机获取的最终深度值利用颜色索引条,结合空间点的像素坐标逐一赋予颜色信息,得到深度图像并输出深度数据。
2.如权利要求1所述一种参数可配置的深度相机仿真方法,其特征在于:步骤二具体方法为:
首先根据构建的3D场景,获取空间点的世界坐标;
其次,将空间点的世界坐标结合深度相机参数进行坐标变换,得到空间点的像素坐标;
为虚拟深度相机构建红外线发射装置,并利用着色器直接获取3D场景中物体表面法线数据信息,根据3D场景空间点的世界坐标,经过夹角运算得到深度相机发出的红外线与物体表面的夹角。
3.如权利要求2所述一种参数可配置的深度相机仿真方法,其特征在于:坐标变换的具体过程如下:
空间点先从世界坐标系转换到透视投影空间坐标系下,变换过程如下:
Pclip=PwordMvMp (1)
式中,Pclip为空间点在透视投影空间坐标系下的坐标,Pword为空间点在世界坐标系下的坐标,Mv为视图变换矩阵,Mp为透视投影变换矩阵。
4.如权利要求3所述一种参数可配置的深度相机仿真方法,其特征在于:Mv的计算过程为:
设虚拟深度相机在世界坐标系下的位置为Pcam,垂直于摄像机向上的方向为以及任一空间点P,则有:
透视投影变换矩阵Mp的计算过程如下:
根据输入的深度相机参数,包括水平视场角α、垂直视场角β、分辨率Res、深度相机的最佳工作范围的最近深度zn和最远深度zf,在视锥体近裁剪面上建立坐标系,其中坐标原点为相机光轴与近裁剪面的交点,设近裁剪面与坐标系轴的交点的所在轴坐标分别为a、b、c、d,则透视投影变换矩阵Mp为:
式(3)中,a、b、c、d满足:
透视投影变换之后进行裁剪变换并进行透视除法得到归一化设备坐标(xndc yndc zndc)T。结合获取的深度相机的分辨率Res=Wp×Hp(Wp代表屏幕宽,Hp代表屏幕高,单位都为像素数),设(x,y)为视窗的左下角坐标,则空间点的像素坐标(xs,ys)为
5.如权利要求1所述一种参数可配置的深度相机仿真方法,其特征在于:步骤三中,当3D场景中物体表面的点存在深度信息缺失时,遮罩函数值M定义为0;当3D场景中物体表面的点不存在深度信息缺失时,遮罩函数值M定义为1。以下是本发明实施例中遮罩函数M的定义:
式中,P代表3D场景中物体表面的点,P∈OccludedScale代表点P位于红外线被遮挡区域,P∈GlossScale代表点P位于物体表面的高光反射区域。
将空间点的深度值与遮罩函数进行与运算,使深度信息缺失的区域的空间点的深度值全设置为0,而其余空间点的深度值保持不变。
6.如权利要求1所述一种参数可配置的深度相机仿真方法,其特征在于:步骤4的具体方法为:根据步骤二,空间点从世界坐标系到归一化设备坐标的转换关系,先进行透视除法逆变换得到可见空间点在透视投影空间下的坐标Pclip,则世界坐标系下的坐标为Pword=Pclip(MvMp)-1;根据Pword可直接获取场景中视角范围内可见物体表面点的真实深度信息d0
7.如权利要求1所述一种参数可配置的深度相机仿真方法,其特征在于:步骤5的具体方法为:
将轴向相关的深度噪声曲线图和径向相关的深度噪声分布图输入到深度相机噪声处理接口,同时输入每个深度噪声曲线图的横纵坐标的取值范围,并进行对应的转换:
轴向相关的深度噪声曲线图为沿相机光轴方向的不同距离L处的红外线与物体表面法线之间的角度θ和轴向深度偏差σA之间的关系曲线;编写脚本和着色器将输入的轴向噪声曲线图转换为二维纹理图片,读取图片左下角和右上角的纹理坐标值,分别设为(u1,v1)和(u2,v2),建立一个二维数组A,将图片上出现的每一条曲线的颜色对应记录其代表的距离值L的大小。设深度噪声曲线图的横纵坐标的取值范围为[a1,a2]和[b1,b2];根据步骤四计算得到的空间点的真实深度信息d0以及红外线与3D物体表面法线之间的夹角θ,得到对应的轴向深度偏差σA
在轴向上的噪声分布可近似为高斯分布,根据偏差值获得该空间点的深度噪声分布为N(0,σA),在[b1,b2]范围内获取符合该分布的一个随机轴向深度噪声值d1
径向相关的深度噪声分布图为垂直于相机光轴的平面上径向深度偏差σB(mm)的关系分布图。获取Unity设置的相应接口输入的颜色索引条的取值范围[e1,e2],空间点P的像素坐标(m,n),分别将颜色索引条和径向先关的噪声分布图转换为Unity中的二维纹理图片,利用与获取轴向深度偏差值σA相似方法,获取径向深度偏差值σB
在径向上的噪声分布可近似为高斯分布,根据偏差值获得空间点的深度噪声分布为N(0,σB),在[w1,w2]范围内获取符合该分布的一个随机径向深度噪声值d2
将得到的随机轴向噪声值d1和随机径向噪声值d2,结合步骤四获得的世界坐标系下的真实深度值d0,进行虚拟深度相机获取的深度值d的合成:
d=d0+d1+d2
8.如权利要求7所述一种参数可配置的深度相机仿真方法,其特征在于:按如下方法查找对应的轴向深度偏差σA
首先,根据空间点P的真实深度信息d0,查找二维数组A,找到与d0在距离值上相同的曲线颜色C1或者与d0在距离值上最相近的两条曲线对应的颜色C2和C3
其次,红外线与3D物体表面法线之间的夹角θ的轴向噪声偏差为σA,则此时对应轴向深度噪声曲线图的纹理坐标(u,v)的横坐标计算如下:
当d0恰好找到相同距离的噪声曲线,结合曲线颜色为C1和u的大小找到对应的纹理坐标的纵坐标值v;
当d0找不到相同距离的噪声曲线时,结合找到的两条最相近曲线颜色C2和C3、这两条曲线对应的距离值为L1和L2,找到两条曲线上对应的横坐标为u的点的纵坐标分别设为h1和h2(h1<h2),则d0对应的纹理纵坐标值可估算为:
最后,根据纹理坐标的纵坐标u值,计算得到轴向深度偏差值σA
9.如权利要求7所述一种参数可配置的深度相机仿真方法,其特征在于:径向深度偏差值σB具体获取过程如下:
首先,根据空间P的像素坐标(m,n)求取对应径向噪声分布图中的对应纹理坐标。设径向噪声分布图对应纹理坐标的左上角坐标和右下角坐标分别为(r1,s1)和(r2,s2),则空间点P的像素坐标对应径向噪声分布图中的纹理坐标(p,q)有
其中,Wp和Hp由深度相机的分辨率得到,Wp代表屏幕宽,Hp代表屏幕高,单位都为像素数;
其次,根据空间点的像素坐标对应的径向噪声分布图中的纹理坐标(p,q),直接读取该坐标处的颜色值C4
最后,根据C4,检索颜色检索条中对应的纹理坐标值(i,j)以及颜色索引条的取值范围[w1,w2],设颜色检索条的右上角右下角的二维纹理纵坐标分别为e1和e2,计算径向偏差值σB
CN201910576884.8A 2019-06-28 2019-06-28 一种参数可配置的深度相机仿真方法 Active CN110276791B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910576884.8A CN110276791B (zh) 2019-06-28 2019-06-28 一种参数可配置的深度相机仿真方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910576884.8A CN110276791B (zh) 2019-06-28 2019-06-28 一种参数可配置的深度相机仿真方法

Publications (2)

Publication Number Publication Date
CN110276791A true CN110276791A (zh) 2019-09-24
CN110276791B CN110276791B (zh) 2021-04-06

Family

ID=67962593

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910576884.8A Active CN110276791B (zh) 2019-06-28 2019-06-28 一种参数可配置的深度相机仿真方法

Country Status (1)

Country Link
CN (1) CN110276791B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110967685A (zh) * 2019-12-09 2020-04-07 Oppo广东移动通信有限公司 评价干扰信号的方法及系统、电子装置和存储介质
CN112927356A (zh) * 2021-03-03 2021-06-08 中国人民解放军战略支援部队信息工程大学 一种无人机图像的三维显示方法
CN114708318A (zh) * 2022-04-12 2022-07-05 西安交通大学 一种基于深度相机的未知待测面曲率测定方法
CN114972598A (zh) * 2022-05-17 2022-08-30 北京优锘科技有限公司 三维场景中相机可视区域渲染方法、装置、介质和设备
CN114708318B (zh) * 2022-04-12 2024-05-28 西安交通大学 一种基于深度相机的未知待测面曲率测定方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102194105A (zh) * 2010-03-19 2011-09-21 微软公司 用于人体跟踪的代表训练数据
CN102763420A (zh) * 2010-02-02 2012-10-31 微软公司 深度相机兼容性
CN103455657A (zh) * 2013-06-21 2013-12-18 浙江理工大学 一种基于Kinect的现场作业仿真方法及其系统
CN104219517A (zh) * 2013-05-31 2014-12-17 上海东方传媒集团有限公司 一种基于3d一体式摄像机的测试方法
US20170041589A1 (en) * 2015-08-06 2017-02-09 Texas Instruments Incorporated Non-linearity correction in phase-to-depth conversion in 3d time of flight systems
CN107292965A (zh) * 2017-08-03 2017-10-24 北京航空航天大学青岛研究院 一种基于深度图像数据流的虚实遮挡处理方法
CN107727364A (zh) * 2016-08-04 2018-02-23 谷歌有限责任公司 测试3d成像系统
CN108475180A (zh) * 2016-01-11 2018-08-31 微软技术许可有限责任公司 在多个显示区域之间分布视频
CN109190580A (zh) * 2018-09-15 2019-01-11 武汉智觉空间信息技术有限公司 一种混合式虚拟场景辅助学习的电力部件识别方法
CN109271893A (zh) * 2018-08-30 2019-01-25 百度在线网络技术(北京)有限公司 一种仿真点云数据的生成方法、装置、设备及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102763420A (zh) * 2010-02-02 2012-10-31 微软公司 深度相机兼容性
CN102194105A (zh) * 2010-03-19 2011-09-21 微软公司 用于人体跟踪的代表训练数据
CN104219517A (zh) * 2013-05-31 2014-12-17 上海东方传媒集团有限公司 一种基于3d一体式摄像机的测试方法
CN103455657A (zh) * 2013-06-21 2013-12-18 浙江理工大学 一种基于Kinect的现场作业仿真方法及其系统
US20170041589A1 (en) * 2015-08-06 2017-02-09 Texas Instruments Incorporated Non-linearity correction in phase-to-depth conversion in 3d time of flight systems
CN108475180A (zh) * 2016-01-11 2018-08-31 微软技术许可有限责任公司 在多个显示区域之间分布视频
CN107727364A (zh) * 2016-08-04 2018-02-23 谷歌有限责任公司 测试3d成像系统
CN107292965A (zh) * 2017-08-03 2017-10-24 北京航空航天大学青岛研究院 一种基于深度图像数据流的虚实遮挡处理方法
CN109271893A (zh) * 2018-08-30 2019-01-25 百度在线网络技术(北京)有限公司 一种仿真点云数据的生成方法、装置、设备及存储介质
CN109190580A (zh) * 2018-09-15 2019-01-11 武汉智觉空间信息技术有限公司 一种混合式虚拟场景辅助学习的电力部件识别方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
A. RAZAVI,AT EL.: ""A Camera Simulation Framework for Passive Depth Recovery Systems"", 《IEE PHOTONICS JOURNAL》 *
DAVID BULCZAK,AT EL.: ""Quantified,Interactive Simulation of AMCW ToF Camera Including Multipath Effects"", 《SENSORS》 *
KAIMA_CHEN: ""Unity Shader - 深度图基础及应用"", 《简书》 *
刘力维: ""基于TOF深度摄像机的深度超分辨率恢复和深度融合研究"", 《中国博士学位论文全文数据库 信息科技辑》 *
刘雨丹等: ""CCD摄像机图像处理仿真"", 《北京航空航天大学学报》 *
陈乙宽: ""采用随机蕨回归的工业零件六维姿态估计"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110967685A (zh) * 2019-12-09 2020-04-07 Oppo广东移动通信有限公司 评价干扰信号的方法及系统、电子装置和存储介质
CN110967685B (zh) * 2019-12-09 2022-03-22 Oppo广东移动通信有限公司 评价干扰信号的方法及系统、电子装置和存储介质
CN112927356A (zh) * 2021-03-03 2021-06-08 中国人民解放军战略支援部队信息工程大学 一种无人机图像的三维显示方法
CN112927356B (zh) * 2021-03-03 2022-12-09 中国人民解放军战略支援部队信息工程大学 一种无人机图像的三维显示方法
CN114708318A (zh) * 2022-04-12 2022-07-05 西安交通大学 一种基于深度相机的未知待测面曲率测定方法
CN114708318B (zh) * 2022-04-12 2024-05-28 西安交通大学 一种基于深度相机的未知待测面曲率测定方法
CN114972598A (zh) * 2022-05-17 2022-08-30 北京优锘科技有限公司 三维场景中相机可视区域渲染方法、装置、介质和设备
CN114972598B (zh) * 2022-05-17 2024-04-02 北京优锘科技有限公司 三维场景中相机可视区域渲染方法、装置、介质和设备

Also Published As

Publication number Publication date
CN110276791B (zh) 2021-04-06

Similar Documents

Publication Publication Date Title
Gross et al. Point-based graphics
Lindstrom et al. Image-driven simplification
Bostanci et al. Augmented reality applications for cultural heritage using Kinect
CN105353873A (zh) 基于三维显示的手势操控方法和系统
CN110276791A (zh) 一种参数可配置的深度相机仿真方法
CN109313821A (zh) 三维对象扫描反馈
Gibson et al. Interactive reconstruction of virtual environments from video sequences
CN103489216A (zh) 使用摄像机和电视监视器的三维物体扫描
Lee et al. Practical real‐time lens‐flare rendering
US6975334B1 (en) Method and apparatus for simulating the appearance of paving stone on an existing driveway
US11954773B1 (en) Process for creating an augmented image
CN109584377A (zh) 一种用于呈现增强现实内容的方法与设备
Yu et al. Multiperspective modeling, rendering, and imaging
Taubin et al. 3d scanning for personal 3d printing: build your own desktop 3d scanner
Verbiest et al. Modeling the effects of windshield refraction for camera calibration
Hou et al. A highly robust automatic 3D reconstruction system based on integrated optimization by point line features
US20040169652A1 (en) System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object
Cao et al. Interactive Rendering of Non‐Constant, Refractive Media Using the Ray Equations of Gradient‐Index Optics
Mittal Neural Radiance Fields: Past, Present, and Future
Vyatkin et al. Offsetting and blending with perturbation functions
Yu et al. Fluid surface reconstruction based on specular reflection model
CN114972612B (zh) 一种基于三维简化模型的图像纹理生成方法及相关设备
Fernández-Palacios et al. Augmented reality for archaeological finds
Güssefeld et al. Are reflectance field renderings appropriate for optical flow evaluation?
Ekholm 3-D scene reconstruction from aerial imagery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230815

Address after: Building 1-1, North of Building 1, New Starting Point Venture Capital Industrial Park, Changtang Town, Shangyu District, Shaoxing City, Zhejiang Province, 312300

Patentee after: Beifei Zhihang (Zhejiang) Technology Co.,Ltd.

Address before: 100191 No. 37, Haidian District, Beijing, Xueyuan Road

Patentee before: BEIHANG University