CN103778643B - 一种实时生成目标深度信息的方法及其装置 - Google Patents
一种实时生成目标深度信息的方法及其装置 Download PDFInfo
- Publication number
- CN103778643B CN103778643B CN201410012567.0A CN201410012567A CN103778643B CN 103778643 B CN103778643 B CN 103778643B CN 201410012567 A CN201410012567 A CN 201410012567A CN 103778643 B CN103778643 B CN 103778643B
- Authority
- CN
- China
- Prior art keywords
- diffraction
- light spot
- discrete light
- target
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本发明提供一种实时生成目标深度信息的方法,步骤为:获取视野内目标的目标衍射离散光斑图序列;得到多个原始的第一帧目标深度图;比较每一个原始的第一帧目标深度图与其对应的参考衍射离散光斑图已知深度的偏离值,选取偏离值最小时对应区域的深度信息,以此获得优化的第一帧目标深度图;使用参考衍射离散光斑图区块,与第二帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到第二帧目标深度图;得到后一帧目标深度图。还提供一种使用上述实时生成目标深度信息的方法的装置。有益效果:实时获取与视野内人或其他目标相距的距离,实时更新深度信息,应用于运动捕捉系统或机器视觉系统等,以作为具体应用系统的信息输入。
Description
技术领域
本发明涉及图像处理技术,特别是一种实时生成目标深度信息的方法及其装置。
背景技术
随着3D技术的发展,立体显示、机器视觉、卫星遥感等方面的技术应用越来越多地需要获取场景的深度信息。目前,深度相机能够获取相机视野内目标的深度信息。
深度相机主要有三种架构,分别是双目立体视觉法、飞行时间法(TOF)和结构光法。双目立体视觉法使用两个镜头的立体视觉来获得关于对象的表面与相机之间的距离的深度信息。飞行时间法使用雷达测量的原理进行三维场景深度的测量,相机发射主动光波照射三维场景,光波经三维场景反射后回到深度相机,根据光波的发射时间和反射光波的接收时间之间的时间差(也即,相位差)获取三维场景的深度信息。
现有的深度相机,获得的深度信息的精确度随着到目标的距离增加而快速地降低,并且精度还取决于目标的表面状态,所以难以获得精确的深度信息。同时,现有的深度相机还存在以下缺陷:
(1)、深度信息生成速度较慢,无法真正实现实时获取;
(2)、所得深度信息的精度达不到理想的精度效果,对边缘处理不好,例如目标深度数据不连续的地方;
(3)、应用场景,测量范围太局限,不能满足一些应用的需要。
发明内容
为了解决上述现有的技术问题,本发明提供一种实时生成目标深度信息的方法及其装置,能够实时获取与视野内人或其他目标相距的距离,并且实时更新深度信息,从而应用于运动捕捉系统或机器视觉系统等,以作为军事、娱乐、智能家居、体育或医学等方面的具体应用系统的信息输入。
本发明解决上述现有的技术问题,提供一种实时生成目标深度信息的方法,具体步骤为:
S1:获取视野内目标的目标衍射离散光斑图序列;该目标衍射离散光斑图序列包括第一帧目标衍射离散光斑图和第二帧目标衍射离散光斑图;
S2:调用预存储的深度信息已知的多个参考衍射离散光斑图,分别与第一帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到对应的多个原始的第一帧目标深度图;比较每一个原始的第一帧目标深度图与其对应的参考衍射离散光斑图已知深度的偏离值,选取偏离值最小时对应区域的深度信息,以此获得优化的第一帧目标深度图;
S3:调用优化的第一帧目标深度图,比较其与每一个参考衍射离散光斑图已知深度的偏离值,对偏离值进行自适应阈值设定,划分偏离值小于阈值时对应的第一帧目标深度图区块,以及对应的参考衍射离散光斑图区块;使用该参考衍射离散光斑图区块,与第二帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到第二帧目标深度图;
S4:对于目标衍射离散光斑图序列的后续帧目标衍射离散光斑图,调用前一帧目标深度图,比较其与每一个参考衍射离散光斑图已知深度的偏离值,对偏离值进行自适应阈值设定,划分偏离值小于阈值时对应的前一帧目标深度图区块,以及对应的参考衍射离散光斑图区块;使用该参考衍射离散光斑图区块,与后一帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到后一帧目标深度图。
本发明更进一步的改进如下所述。
包括采集深度信息已知的参考衍射离散光斑图;一光屏垂直于摄像机的光轴设置,摄像机获取已知深度信息的光屏上的衍射离散光斑图,作为一参考衍射离散光斑图。
沿着光轴方向,设置多个采集位置,获得深度信息已知的多个参考衍射离散光斑图。
衍射离散光斑互相关处理使用的位移形函数、搜索函数、互相关函数分别为
其中(x,y)表示参考衍射离散光斑图子区的任一点;
(xˊ,yˊ)表示目标衍射离散光斑图子区的任一点;
u、v、和表示参考衍射离散光斑图子区中心点的位移量和导数;
其中,f为参考图像子区的灰度函数;g为目标图像子区的灰度函数;x,y表示参考图像子区的像素在参考图像中的坐标;x+u,y+v表示目标图像子区的像素在目标图像中的坐标;S为最终的相关系数;
其中,S为最终的互相关系数,S=0相关,S=1不相关;
f为参考衍射离散光斑图像子区内的图像灰度函数,g为目标衍射离散光斑图像子区内的图像灰度函数,<f>和<g>表示f和g在匹配区域内的系统平均值。
在步骤S1中,获取视野内目标的目标衍射离散光斑图序列之后,对该目标衍射离散光斑图进行预处理。
所述预处理为使用降噪、插值法、中值滤波法或区块划分法进行处理。
本发明解决上述现有的技术问题,提供一种使用实时生成目标深度信息的方法的装置,包括主体,还包括激光器、衍射光学元件、摄像机、图像处理模块和存储器;所述摄像机与所述图像处理模块连接,所述图像处理模块与所述存储器连接;所述激光器发出的激光穿透所述衍射光学元件后照明视野中的目标;所述摄像机获取视野中的目标衍射离散光斑图,并发送至所述图像处理模块;所述图像处理模块对所述目标衍射离散光斑图和所述存储器内预存储的参考衍射离散光斑图进行衍射离散光斑互相关匹配处理,以生成目标的深度信息。
本发明更进一步的改进如下所述。
还包括窄带通滤波片,所述窄带通滤波片置于所述摄像机的镜头前。
所述激光器与所述衍射光学元件构成衍射离散光斑发生器。
所述激光器为单模激光器或多模激光器。
相较于现有技术,本发明的有益效果是:能够实时获取与视野内人或其他目标相距的距离,并且实时更新深度信息,从而应用于运动捕捉系统或机器视觉系统等,以作为军事、娱乐、智能家居、体育或医学等方面的具体应用系统的信息输入。采用多模激光器,降低了装置成本,采用单片光学衍射元件,提高了光学系统稳定性。
附图说明
图1为本发明实时生成目标深度信息的方法的流程图。
图2为采集参考衍射离散光斑图的结构示意图。
图3为本发明装置的模块示意图。
具体实施方式
下面结合附图说明及具体实施方式对本发明进一步说明。
如图1至图3所示,一种实时生成目标深度信息的方法,具体步骤为:
S1:获取视野内目标的目标衍射离散光斑图序列;该目标衍射离散光斑图序列包括第一帧目标衍射离散光斑图和第二帧目标衍射离散光斑图,还包括连续的后续帧目标衍射离散光斑图;
S2:调用预存储的深度信息已知的多个参考衍射离散光斑图,假设该多个参考衍射离散光斑图的数量为N,那么,分别与第一帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到对应的N个原始的第一帧目标深度图;比较每一个原始的第一帧目标深度图与其对应的参考衍射离散光斑图已知深度的偏离值,在N个偏离值中选取偏离值最小的区域的深度信息,以此获得优化的第一帧目标深度图;
S3:调用优化的第一帧目标深度图,比较其与每一个参考衍射离散光斑图已知深度的偏离值,对偏离值进行自适应阈值设定,划分偏离值小于阈值时对应的第一帧目标深度图区块,以及对应的参考衍射离散光斑图区块,该参考衍射离散光斑图区块能够为单一的区块,也能够为复数个区块的集合;使用该参考衍射离散光斑图区块,即使用单一的区块,或者使用复数个区块的集合,与第二帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到第二帧目标深度图;在该步骤中,划分的第一帧参考衍射离散光斑图区块能够映射到接下的第二帧衍射离散光斑图,进行相同的划分。
S4:对于目标衍射离散光斑图序列的后续帧目标衍射离散光斑图,调用前一帧目标深度图,比较其与每一个参考衍射离散光斑图已知深度的偏离值,对偏离值进行自适应阈值设定,划分偏离值小于阈值时对应的前一帧目标深度图区块,以及对应的参考衍射离散光斑图区块;使用该参考衍射离散光斑图区块,与后一帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到后一帧目标深度图。在该步骤中,划分的前一帧参考衍射离散光斑图区块能够映射到接下的后一帧衍射离散光斑图,进行相同的划分。
如果实时生成的目标深度信息对外输出,那么,还包括步骤S5:优化的第一帧目标深度图、第二帧目标深度图及后续帧目标深度图的输出。对偏离值进行自适应阈值设定,从处理第二帧目标深度衍射离散光斑图开始,每一帧目标深度图的生成都进行一次自适应阈值设定。自适应阈值设定即对应每一幅参考衍射离散光斑图设定一个阈值,使得划分出的目标深度图区块构成原来完整的一幅深度图。
本发明亦包括步骤:采集深度信息已知的参考衍射离散光斑图,该步骤在S1之前。一光屏12垂直于摄像机13的光轴设置,摄像机13获取已知深度信息的光屏12上的衍射离散光斑图,作为一参考衍射离散光斑图。沿着光轴方向,设置多个采集位置,获得深度信息已知的多个参考衍射离散光斑图。一般情况下,设置的间距越小、参考衍射离散光斑图越密集,那么生成的目标深度信息精度越高。
本发明采用的衍射离散光斑互相关处理使用的位移形函数、搜索函数、互相关函数分别为
其中(x,y)表示参考衍射离散光斑图子区的任一点;
(xˊ,yˊ)表示目标衍射离散光斑图子区的任一点;
u、v、和表示参考衍射离散光斑图子区中心点的位移量和导数;
其中,f为参考图像子区的灰度函数;g为目标图像子区的灰度函数;x,y表示参考图像子区的像素在参考图像中的坐标;x+u,y+v表示目标图像子区的像素在目标图像中的坐标;S为最终的相关系数;
其中,S为最终的互相关系数,S=0相关,S=1不相关;
f为参考衍射离散光斑图像子区内的图像灰度函数,g为目标衍射离散光斑图像子区内的图像灰度函数,<f>和<g>表示f和g在匹配区域内的系统平均值。
为了提高生成的目标深度信息的精度效果,改善边缘处理效果,例如目标深度数据不连续的地方,在步骤S1中,获取视野内目标的目标衍射离散光斑图序列之后,对该目标衍射离散光斑图进行预处理,即使用降噪、插值法、中值滤波法或区块划分法进行处理,除此之外,亦能够使用本领域悉知的其它预处理方法进行处理。
如图1至图3所示,本发明提供一种使用实时生成目标深度信息的方法的装置,包括主体16、激光器、衍射光学元件112、摄像机13、图像处理模块14和存储器15。主体16提供安装基础。摄像机13与图像处理模块14连接,图像处理模块14与存储器15连接。激光器发出的激光穿透衍射光学元件112后照明视野中的目标;摄像机13获取视野中的目标衍射离散光斑图,并发送至图像处理模块14;图像处理模块14对目标衍射离散光斑图和存储器15内预存储的参考衍射离散光斑图进行衍射离散光斑互相关匹配处理,以生成目标的深度信息。
本发明还包括窄带通滤波片,该窄带通滤波片置于摄像机13的镜头前,让激光衍射离散光斑的中心波段通过,滤除其它波段的光,从而减少环境光的影响,使得在室内较暗的环境或室外较亮的环境下,均能正常工作。
本发明的激光器与衍射光学元件112构成衍射离散光斑发生器11,该激光器为单模激光器或多模激光器111,当为多模激光器111时能够降低生产成本。
本发明能够实时获取与视野内人或其他目标相距的距离,并且实时更新深度信息,从而应用于运动捕捉系统或机器视觉系统等,以作为军事、娱乐、智能家居、体育或医学等方面的具体应用系统的信息输入。采用多模激光器111,降低了装置成本,采用单片光学衍射元件,提高了光学系统稳定性。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种实时生成目标深度信息的方法,其特征在于:具体步骤为:
S1:获取视野内目标的目标衍射离散光斑图序列;该目标衍射离散光斑图序列包括第一帧目标衍射离散光斑图和第二帧目标衍射离散光斑图;
S2:调用预存储的深度信息已知的多个参考衍射离散光斑图,分别与第一帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到对应的多个原始的第一帧目标深度图;比较每一个原始的第一帧目标深度图与其对应的参考衍射离散光斑图已知深度的偏离值,选取偏离值最小时对应区域的深度信息,以此获得优化的第一帧目标深度图;
S3:调用优化的第一帧目标深度图,比较其与每一个参考衍射离散光斑图已知深度的偏离值,对偏离值进行自适应阈值设定,划分偏离值小于阈值时对应的第一帧目标深度图区块,以及对应的参考衍射离散光斑图区块;使用该参考衍射离散光斑图区块,与第二帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到第二帧目标深度图;
S4:对于目标衍射离散光斑图序列的后续帧目标衍射离散光斑图,调用前一帧目标深度图,比较其与每一个参考衍射离散光斑图已知深度的偏离值,对偏离值进行自适应阈值设定,划分偏离值小于阈值时对应的前一帧目标深度图区块,以及对应的参考衍射离散光斑图区块;使用该参考衍射离散光斑图区块,与后一帧目标衍射离散光斑图进行衍射离散光斑互相关匹配处理,得到后一帧目标深度图;
在步骤S3和S4中的自适应阈值设定是对应每一幅参考衍射离散光斑图设定一个阈值,使得划分出的目标深度图区块构成原来完整的一幅深度图。
2.根据权利要求1所述的实时生成目标深度信息的方法,其特征在于:包括采集深度信息已知的参考衍射离散光斑图;一光屏垂直于摄像机的光轴设置,摄像机获取已知深度信息的光屏上的衍射离散光斑图,作为一参考衍射离散光斑图。
3.根据权利要求2所述的实时生成目标深度信息的方法,其特征在于:沿着光轴方向,设置多个采集位置,获得深度信息已知的多个参考衍射离散光斑图。
4.根据权利要求1所述的实时生成目标深度信息的方法,其特征在于:衍射离散光斑互相关处理使用的位移形函数、搜索函数、互相关函数分别为
其中(x,y)表示参考衍射离散光斑图子区的任一点;
(xˊ,yˊ)表示目标衍射离散光斑图子区的任一点;
u、v、和表示参考衍射离散光斑图子区中心点的位移量和导数;
其中,f为参考图像子区的灰度函数;g为目标图像子区的灰度函数;x,y表示参考图像子区的像素在参考图像中的坐标;x+u,y+v表示目标图像子区的像素在目标图像中的坐标;S为最终的相关系数;
其中,S为最终的互相关系数,S=0相关,S=1不相关;
f为参考衍射离散光斑图像子区内的图像灰度函数,g为目标衍射离散光斑图像子区内的图像灰度函数,<f>和<g>表示f和g在匹配区域内的系统平均值。
5.根据权利要求1所述的实时生成目标深度信息的方法,其特征在于:在步骤S1中,获取视野内目标的目标衍射离散光斑图序列之后,对该目标衍射离散光斑图进行预处理。
6.根据权利要求5所述的实时生成目标深度信息的方法,其特征在于:所述预处理为使用降噪、插值法、中值滤波法或区块划分法进行处理。
7.一种使用权利要求1至6任意一项所述实时生成目标深度信息的方法的装置,包括主体,其特征在于:还包括激光器、衍射光学元件、摄像机、图像处理模块和存储器;所述摄像机与所述图像处理模块连接,所述图像处理模块与所述存储器连接;
所述激光器发出的激光穿透所述衍射光学元件后照明视野中的目标;
所述摄像机获取视野中的目标衍射离散光斑图,并发送至所述图像处理模块;
所述图像处理模块对所述目标衍射离散光斑图和所述存储器内预存储的参考衍射离散光斑图进行衍射离散光斑互相关匹配处理,以生成目标的深度信息。
8.根据权利要求7所述的使用实时生成目标深度信息的方法的装置,其特征在于:还包括窄带通滤波片,所述窄带通滤波片置于所述摄像机的镜头前。
9.根据权利要求7所述的使用实时生成目标深度信息的方法的装置,其特征在于:所述激光器与所述衍射光学元件构成衍射离散光斑发生器。
10.根据权利要求7所述的使用实时生成目标深度信息的方法的装置,其特征在于:所述激光器为单模激光器或多模激光器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410012567.0A CN103778643B (zh) | 2014-01-10 | 2014-01-10 | 一种实时生成目标深度信息的方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410012567.0A CN103778643B (zh) | 2014-01-10 | 2014-01-10 | 一种实时生成目标深度信息的方法及其装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103778643A CN103778643A (zh) | 2014-05-07 |
CN103778643B true CN103778643B (zh) | 2016-08-17 |
Family
ID=50570839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410012567.0A Active CN103778643B (zh) | 2014-01-10 | 2014-01-10 | 一种实时生成目标深度信息的方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103778643B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104764416B (zh) * | 2015-03-06 | 2018-04-10 | 南京宇行软件有限公司 | 一种测量动态回转体椭圆度的方法 |
CN104918034A (zh) * | 2015-05-29 | 2015-09-16 | 深圳奥比中光科技有限公司 | 一种3d图像捕获装置、捕获方法及3d图像系统 |
CN106548489B (zh) * | 2016-09-20 | 2019-05-10 | 深圳奥比中光科技有限公司 | 一种深度图像与彩色图像的配准方法、三维图像采集装置 |
CN106875435B (zh) * | 2016-12-14 | 2021-04-30 | 奥比中光科技集团股份有限公司 | 获取深度图像的方法及系统 |
CN107734283A (zh) * | 2017-09-11 | 2018-02-23 | 广东欧珀移动通信有限公司 | 视频聊天的画面处理方法、装置和存储介质 |
CN107707839A (zh) * | 2017-09-11 | 2018-02-16 | 广东欧珀移动通信有限公司 | 图像处理方法及装置 |
CN108399596B (zh) | 2018-02-07 | 2020-12-18 | 深圳奥比中光科技有限公司 | 深度图像引擎及深度图像计算方法 |
CN108710215A (zh) * | 2018-06-20 | 2018-10-26 | 深圳阜时科技有限公司 | 一种光源模组、3d成像装置、身份识别装置及电子设备 |
CN109798838B (zh) * | 2018-12-19 | 2020-10-27 | 西安交通大学 | 一种基于激光散斑投射的ToF深度传感器及其测距方法 |
CN111664798B (zh) * | 2020-04-29 | 2022-08-02 | 奥比中光科技集团股份有限公司 | 一种深度成像方法、装置及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101496032B (zh) * | 2006-02-27 | 2011-08-17 | 普莱姆传感有限公司 | 使用斑纹解相关的距离映射的方法及设备 |
CN102970548A (zh) * | 2012-11-27 | 2013-03-13 | 西安交通大学 | 一种图像深度感知装置 |
CN103279982A (zh) * | 2013-05-24 | 2013-09-04 | 中国科学院自动化研究所 | 鲁棒的快速高深度分辨率的散斑三维重建方法 |
CN103424083A (zh) * | 2012-05-24 | 2013-12-04 | 北京数码视讯科技股份有限公司 | 物体深度的检测方法、装置和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9470778B2 (en) * | 2011-03-29 | 2016-10-18 | Microsoft Technology Licensing, Llc | Learning from high quality depth measurements |
-
2014
- 2014-01-10 CN CN201410012567.0A patent/CN103778643B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101496032B (zh) * | 2006-02-27 | 2011-08-17 | 普莱姆传感有限公司 | 使用斑纹解相关的距离映射的方法及设备 |
CN103424083A (zh) * | 2012-05-24 | 2013-12-04 | 北京数码视讯科技股份有限公司 | 物体深度的检测方法、装置和系统 |
CN102970548A (zh) * | 2012-11-27 | 2013-03-13 | 西安交通大学 | 一种图像深度感知装置 |
CN103279982A (zh) * | 2013-05-24 | 2013-09-04 | 中国科学院自动化研究所 | 鲁棒的快速高深度分辨率的散斑三维重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103778643A (zh) | 2014-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103778643B (zh) | 一种实时生成目标深度信息的方法及其装置 | |
CN107204010B (zh) | 一种单目图像深度估计方法与系统 | |
CN103796001A (zh) | 一种同步获取深度及色彩信息的方法及装置 | |
US10614581B2 (en) | Deep image localization | |
CN109543549B (zh) | 用于多人姿态估计的图像数据处理方法及装置、移动端设备、服务器 | |
CN106127788B (zh) | 一种视觉避障方法和装置 | |
CN108537191B (zh) | 一种基于结构光摄像头的三维人脸识别方法 | |
US9984461B2 (en) | Method, apparatus, and terminal for obtaining vital sign data of target object | |
US9406171B2 (en) | Distributed aperture visual inertia navigation | |
CN107204012A (zh) | 降低飞行时间深度成像的功耗 | |
WO2015098288A1 (ja) | 画像処理装置、および画像処理方法 | |
CN106210568A (zh) | 图像处理方法以及装置 | |
CN102710951A (zh) | 基于散斑结构光深度相机的多视点计算成像方法 | |
CN103994765B (zh) | 一种惯性传感器的定位方法 | |
EP2677347A3 (en) | Spatial data services | |
CN104155765A (zh) | 在拼接式集成成像显示器中校正三维图像的方法和设备 | |
CN105357515A (zh) | 一种基于结构光和光场成像的彩色深度成像方法及其装置 | |
CN105279750A (zh) | 一种基于ir-uwb和图像矩的装备展示导览系统 | |
CN103561257B (zh) | 一种基于深度参考平面的无干扰的光编码深度提取方法 | |
WO2021036670A1 (zh) | 多模输出的智能振动检测方法及装置 | |
CN107560592A (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN113763231B (zh) | 模型生成方法、图像透视图确定方法、装置、设备及介质 | |
CN106170086A (zh) | 绘制三维图像的方法及其装置、系统 | |
CN106296624A (zh) | 一种图像融合方法及装置 | |
CN103869484B (zh) | 光学4f系统的大成像深度三维显示系统中成像深度的确定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |