CN112116640A - 一种基于OpenCL的双目立体匹配方法 - Google Patents

一种基于OpenCL的双目立体匹配方法 Download PDF

Info

Publication number
CN112116640A
CN112116640A CN202010953507.4A CN202010953507A CN112116640A CN 112116640 A CN112116640 A CN 112116640A CN 202010953507 A CN202010953507 A CN 202010953507A CN 112116640 A CN112116640 A CN 112116640A
Authority
CN
China
Prior art keywords
opencl
kernel
matching
program
binocular stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010953507.4A
Other languages
English (en)
Other versions
CN112116640B (zh
Inventor
左超
张晓磊
沈德同
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University Of Technology Intelligent Computing Imaging Research Institute Co ltd
Original Assignee
Nanjing University Of Technology Intelligent Computing Imaging Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University Of Technology Intelligent Computing Imaging Research Institute Co ltd filed Critical Nanjing University Of Technology Intelligent Computing Imaging Research Institute Co ltd
Priority to CN202010953507.4A priority Critical patent/CN112116640B/zh
Publication of CN112116640A publication Critical patent/CN112116640A/zh
Application granted granted Critical
Publication of CN112116640B publication Critical patent/CN112116640B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于OpenCL的双目立体匹配方法,包括以下步骤:通过对双目立体视觉系统进行标定,获得该系统的标定数据;利用标定参数对双目立体视觉系统采集的图像进行极线校正;利用双目立体匹配算法计算拍摄场景的视差数据;将上述方法编写为可以供OpenCL使用的内核程序;将步骤4中编写完成的内核程序生成硬件配置文件;初始化OpenCL内核启动环境;执行OpenCL程序,并从OpenCL内核中输出视差数据,释放资源。本发明方法采用的是传统的双目匹配算法,并使用OpenCL对匹配算法进行并行化实现,不仅提高了传统算法的计算速率,而且使得该算法可以在OpenCL的平台和设备上运行,并且本发明方法不仅适用于双目系统,还可用于类似平台的立体匹配。

Description

一种基于OpenCL的双目立体匹配方法
技术领域
本发明属于光学测量技术领域,具体涉及一种基于OpenCL的双目快速立体匹配方法。
背景技术
随着计算机技术、信息技术和光电子技术的进步,光学三维测量技术得到了迅速发展。近年来,人脸识别技术进入了人们的生活中,无论时机场火车站、还是快速支付领域,甚至在小区的入口处都使用了人脸识别技术。人脸识别技术的关键在于识别出人脸的三维信息,而获得三维信息最为重要的一个方法就是双目立体匹配。半全局匹配(SGM)算法是计算双目立体视觉视差数据的一种重要的算法,通过设置一个和视差图像相关的全局能量函数,使这个函数最小化,以求获得这个像素最优视差的目的。为了使SGM算法的结果更加准确,需要在计算全局能量函数时计算多个方向上的匹配聚合代价,但是这样就会使得算法的计算时间大大增加,因此提高双目立体匹配算法的计算速度就是改善人脸识别技术的一个重要的突破。
1999年NVIDIA公司在发布Geforce256图形处理芯片时首先提出了GPU的概念。经过二十多年的发展,GPU的能力被不断的提升,因为GPU具有高度并行结构,其并行计算能力已经远远超越了CPU,所以利用GPU对各种计算进行并行加速也成为了近年来的一个研究热点。目前,在利用GPU进行并行化计算中最为常用的两种技术分别为:CUDA和OpenCL,其中本专利所采用的技术就是OpenCL技术。OpenCL全称为Open Computing Language,是由Khronos Group维护的为异构平台提供编写程序的开放性标准框架。OpenCL可以在多核CPU或者GPU上编译运行,通过使用OpenCL,软件开发人员可以高效的利用各种异构处理平台进行组合工作。
发明内容
本发明的主要目的在于提供一种基于OpenCL的双目立体匹配方法,该方法通过对SGM算法进行并行化计算,在不降低测量精度的情况下实现快速的双目立体匹配。
本发明的技术方案如下:一种基于OpenCL的双目立体匹配方法,包括下述步骤:
步骤1:对所使用的双目立体标定系统进行标定,获得两个相机之间的旋转矩阵、平移矩阵和系统内部参数;
步骤2:通过相机标定获得的标定参数对双目立体视觉系统采集到的图像进行极线校正,使两个图像中的匹配点处于同一极线下;
步骤3:将极线校正完成的图像通过立体匹配算法,计算获得视差数据;
步骤4:将上述步骤写成可以供OpenCL主程序调用的内核函数,函数的参数包括双目立体视觉系统的标定数据、图像的分辨率大小以及视差约束的范围;
步骤5:将编写完成的OpenCL内核程序生成硬件配置文件;
步骤6:初始化OpenCL内核启动环境,编写OpenCL主程序,主程序包括设置分块大小,获取可用平台,获取设备列表并选中目标设备作为运行设备,创建上下文环境,创建内核程序对象并进行编译、创建传输队列和内核执行队列,创建内存空间,设置参数映射,拷贝数据到设备,安排传输队列和内核队列的执行顺序,从目标设备中拷贝执行结果,释放资源;
步骤7:执行OpenCL程序,并将运行后获得的视差数据从目标设备中拷贝得到,最后释放资源。
优选的,步骤3中所使用的立体匹配算法的具体方法是:极线校正完成的两幅图像进行Census变换,将图像像素中的灰度信息计算为初始的特征信息,利用获得的特征信息经过半全局匹配算法,通过对上下左右四个方向的匹配聚合代价进行计算,并将四个方向的匹配聚合代价取平均值,最终获得像素点之间的匹配聚合代价,通过匹配聚合代价的最小值找到两幅图像之间对应的匹配像素点,因为经过了极线校正后,两幅图像之间的匹配像素点处于同一极线下,所以两个匹配点的横坐标差即为该像素点的视差数据。
优选的,步骤4中将完整的双目立体匹配算法编写为OpenCL内核程序的执行顺序为:畸变校正;Census变换;通过Census变换得到的数据计算汉明距离;半全局匹配,分别进行四个方向的SGM变换,并在最后一个方向的SGM变换中将四个方向的匹配聚合代价取平均;通过WTA算法计算视差数据;进行亚像素计算。
优选的,步骤6中编写OpenCL主程序的具体内容为:先使用clGetPlatformIDs和clGetPlatformInfo两个命令来获取可用的计算平台;然后通过clCreateContextFromType命令生成context上下文环境和通过clBuildProgram命令生成program编译对象;根据权利要求书3中所提到的内核程序和所需要的内存空间,可以分别使用clCreateKernel命令和clCreateBuffer命令来创建内核对象和创建内存空间;然后设置global_work_size和local_work_size两个参数的值,因为采取二维线程的并行方式,所以两个参数均为二维数组,且根据不同的内核程序两个参数的值会随之变化。
优选的,步骤7中运行OpenCL程序和读出所需要的是视差数据的具体内容为:在程序运行时需要通过clEnqueueNDRangeKernel命令将内核程序和内存空间放入命令队列中执行,再最后通过clEnqueueReadBuffer命令将计算获得的数据从内核中读取。
本发明与传统方法相比,具有如下优点:本方法相比较与在CPU中串行计算的双目立体匹配算法在算法的计算速度方面有着显著的提升。并且在提升算法计算速度的同时并没有影响双目立体匹配算法的计算精度。
附图说明
图1为基于OpenCL的双目立体匹配方法步骤流程示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本发明是一种基于OpenCL的双目立体匹配方法,可进行快速的双目立体匹配,获得准确的匹配结果(视差数据)。本方法的具体流程如图1所示,本方法包括以下几个步骤:
步骤一:搭建双目立体视觉系统,并对双目立体视觉系统进行标定,获得标定参数。并且搭建场景,利用双目立体视觉系统采集场景的图像。
步骤二:利用系统的标定参数对采集到的图像进行极线校正,使两个视角采集到的图像处于同一极线下。
步骤三:将极线校正后的图像进行Census变换,Census变换的公式如下:
Figure DEST_PATH_IMAGE001
其中p为Census窗口的中心像素,q为窗口中心像素以外的其他像素。通过Census变换将图像的灰度值转化为特征值。然后利用Census变换获得的特征值计算汉明距离(HammingDistance),根据事先设置好的视差约束范围,计算出视差约束范围内的初始匹配代价。利用SGM算法计算多个方向上的匹配聚合代价,SGM的公式如下:
Figure DEST_PATH_IMAGE002
其中D为视差数据,p和q代表图中的某一个像素点,Np为像素p点的相邻像素点,C(p,Dp)代表当前像素点视差为Dp时的匹配代价,P1和P2为惩罚系数(常数),I[.]函数返回1,如果函数中的参数为真,否则返回0。考虑到SGM算法对某个方向进行计算,当沿着r方向时,可以将SGM计算表示为:
Figure DEST_PATH_IMAGE003
其中Lr(p,d)为沿着当前方向,且视差值为d时最小的匹配聚合代价。通过计算多个方向的匹配聚合代价,并对其取平均则可以获得最终的匹配聚合代价S(p,d):
Figure 339459DEST_PATH_IMAGE004
其中每个像素的匹配聚合代价最小值即为该像素的最佳视差数据,即:
Figure DEST_PATH_IMAGE005
为了可以进一步提高测量的精度,可以通过视差匹配代价聚合S(p,d)拟合的曲线将整像素的视差数据转化为亚像素的视差数据:
Figure 787758DEST_PATH_IMAGE006
其中Ds(p)为亚像素的视差数据,d'为p点的整像素视差数据,即d'=Dint(P)。
步骤四:将步骤二和步骤三的算法写成可以供OpenCL运行的内核程序。通过get_global_id(x)函数可以获取当前执行的工作节点在工作空间中指定维度x上的索引位置。我们采用的时二维线程的并行方式,其中两个维度分别代表图像的分辨率,即图像的宽和高。根据local_work_size参数的值来决定每一次并行计算中工作组的大小。
步骤五:将步骤四中所编写的内核程序放入.cl文件中,将其生成硬件配置文件。
步骤六:初始化OpenCL内核的启动环境。先使用clGetPlatformIDs和clGetPlatformInfo两个命令来获取可用的计算平台,并选择其中一个环境作为计算平台;然后通过clCreateContextFromType命令生成context上下文环境和通过clBuildProgram命令生成program编译对象;使用clCreateKernel命令和clCreateBuffer命令来创建内核对象和创建内存空间;然后设置global_work_size和local_work_size两个参数的值,因为采取二维线程的并行方式,所以两个参数均为二维数组,且根据不同的内核程序两个参数的值会随之变化;最后使用clCreateCommandQueue命令创建执行内核函数以及执行数据传输的两个命令队列。
步骤七:执行OpenCL程序,通过clEnqueueNDRangeKernel命令将内核程序和内存空间放入命令队列中执行,再最后通过clEnqueueReadBuffer命令将计算获得的数据从内核中读取,并且计算所耗费的时间。
为验证本专利所述方法的有效性,利用两个相机(Basler acA640 750um)和一个投影仪(DLP 4500pro)搭建双目立体视觉系统。在本次实验中几个重要的参数:图像分辨率为640*480,视差约束的范围为-23~31。本次实例运行环境为:CPU型号为Core i7-8700,内存8G,操作系统为10.1(64位),GPU型号为NVIDIA GTX 1050Ti,显存2G,所使用的SDK版本为CUDA Toolkit 10.0,所使用的集成开发环境为Visual Studio 2013。
为了可以最大化的利用GPU的计算能力,我们所设置的local_work_size的数值为 [16,16],因为global_work_size数值的大小必须被local_work_size所整除,所以将 global_work_size数值的大小设置为[640,480]。
方法 用时(ms) 加速比
串行化计算 8400 1
并行化计算 64 131.25
通过比较可以看出并行化计算(本专利所使用的方法)和串行化计算之间的计算速度的差异,其中并行化计算所需要的时间约为64ms,而串行化计算所需要的时间为8.4s。本发明的方法有着更快的测量速度,这说明本发明的方法可以更加快速,高效地实现双目立体匹配。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种基于OpenCL的双目立体匹配方法,其特征在于,包括下述步骤:
步骤1:对所使用的双目立体标定系统进行标定,获得两个相机之间的旋转矩阵、平移矩阵和系统内部参数;
步骤2:通过相机标定获得的标定参数对双目立体视觉系统采集到的图像进行极线校正,使两个图像中的匹配点处于同一极线下;
步骤3:将极线校正完成的图像通过立体匹配算法,计算获得视差数据;
步骤4:将上述步骤写成可以供OpenCL主程序调用的内核函数,函数的参数包括双目立体视觉系统的标定数据、图像的分辨率大小以及视差约束的范围;
步骤5:将编写完成的OpenCL内核程序生成硬件配置文件;
步骤6:初始化OpenCL内核启动环境,编写OpenCL主程序,主程序包括设置分块大小,获取可用平台,获取设备列表并选中目标设备作为运行设备,创建上下文环境,创建内核程序对象并进行编译、创建传输队列和内核执行队列,创建内存空间,设置参数映射,拷贝数据到设备,安排传输队列和内核队列的执行顺序,从目标设备中拷贝执行结果,释放资源;
步骤7:执行OpenCL程序,并将运行后获得的视差数据从目标设备中拷贝得到,最后释放资源。
2.根据权利要求1所述的基于OpenCL的双目立体匹配方法,其特征在于,步骤3中所使用的立体匹配算法的具体方法是:
极线校正完成的两幅图像进行Census变换,将图像像素中的灰度信息计算为初始的特征信息,利用获得的特征信息经过半全局匹配算法,通过对上下左右四个方向的匹配聚合代价进行计算,并将四个方向的匹配聚合代价取平均值,最终获得像素点之间的匹配聚合代价,通过匹配聚合代价的最小值找到两幅图像之间对应的匹配像素点,因为经过了极线校正后,两幅图像之间的匹配像素点处于同一极线下,所以两个匹配点的横坐标差即为该像素点的视差数据。
3.根据权利要求2所述的基于OpenCL的双目立体匹配方法,其特征在于,步骤4中将完整的双目立体匹配算法编写为OpenCL内核程序的执行顺序为:
畸变校正;Census变换;通过Census变换得到的数据计算汉明距离;半全局匹配,分别进行四个方向的SGM变换,并在最后一个方向的SGM变换中将四个方向的匹配聚合代价取平均;通过WTA算法计算视差数据;进行亚像素计算。
4.根据权利要求3所述的基于OpenCL的双目立体匹配方法,其特征在于,步骤6中编写OpenCL主程序的具体内容为:
先使用clGetPlatformIDs和clGetPlatformInfo两个命令来获取可用的计算平台;然后通过clCreateContextFromType命令生成context上下文环境和通过clBuildProgram命令生成program编译对象;根据权利要求书3中所提到的内核程序和所需要的内存空间,可以分别使用clCreateKernel命令和clCreateBuffer命令来创建内核对象和创建内存空间;
然后设置global_work_size和local_work_size两个参数的值,因为采取二维线程的并行方式,所以两个参数均为二维数组,且根据不同的内核程序两个参数的值会随之变化。
5.根据权利要求4所述的基于OpenCL的双目立体匹配方法,其特征在于,步骤7中运行OpenCL程序和读出所需要的是视差数据的具体内容为:
在程序运行时需要通过clEnqueueNDRangeKernel命令将内核程序和内存空间放入命令队列中执行,再最后通过clEnqueueReadBuffer命令将计算获得的数据从内核中读取。
CN202010953507.4A 2020-09-11 2020-09-11 一种基于OpenCL的双目立体匹配方法 Active CN112116640B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010953507.4A CN112116640B (zh) 2020-09-11 2020-09-11 一种基于OpenCL的双目立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010953507.4A CN112116640B (zh) 2020-09-11 2020-09-11 一种基于OpenCL的双目立体匹配方法

Publications (2)

Publication Number Publication Date
CN112116640A true CN112116640A (zh) 2020-12-22
CN112116640B CN112116640B (zh) 2024-02-23

Family

ID=73803046

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010953507.4A Active CN112116640B (zh) 2020-09-11 2020-09-11 一种基于OpenCL的双目立体匹配方法

Country Status (1)

Country Link
CN (1) CN112116640B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114332345A (zh) * 2021-09-23 2022-04-12 北京科技大学 一种基于双目视觉的冶金库区局部三维重建方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018086348A1 (zh) * 2016-11-09 2018-05-17 人加智能机器人技术(北京)有限公司 双目立体视觉系统及深度测量方法
WO2018098891A1 (zh) * 2016-11-30 2018-06-07 成都通甲优博科技有限责任公司 一种立体匹配方法及系统
CN111047678A (zh) * 2018-10-12 2020-04-21 杭州海康威视数字技术股份有限公司 一种三维人脸采集装置和方法
CN111563564A (zh) * 2020-07-20 2020-08-21 南京理工大学智能计算成像研究院有限公司 基于深度学习的散斑图像逐像素匹配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018086348A1 (zh) * 2016-11-09 2018-05-17 人加智能机器人技术(北京)有限公司 双目立体视觉系统及深度测量方法
WO2018098891A1 (zh) * 2016-11-30 2018-06-07 成都通甲优博科技有限责任公司 一种立体匹配方法及系统
CN111047678A (zh) * 2018-10-12 2020-04-21 杭州海康威视数字技术股份有限公司 一种三维人脸采集装置和方法
CN111563564A (zh) * 2020-07-20 2020-08-21 南京理工大学智能计算成像研究院有限公司 基于深度学习的散斑图像逐像素匹配方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
丁欢欢: "双目立体视觉测距系统关键技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, 15 February 2016 (2016-02-15) *
吴志佳: "基于异构多核处理器的双目视觉系统设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》, 15 January 2018 (2018-01-15) *
吴树森;董小社;王宇菲;王龙翔;朱正东: "UPPA:面向异构众核系统的统一并行编程架构", 《计算机学报》, 30 June 2020 (2020-06-30) *
左超;张晓磊;胡岩;尹维;沈德同;钟锦鑫;郑晶;陈钱: "3D真的来了吗?——三维结构光传感器漫谈", 《红外与激光工程》, 30 June 2020 (2020-06-30) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114332345A (zh) * 2021-09-23 2022-04-12 北京科技大学 一种基于双目视觉的冶金库区局部三维重建方法及系统

Also Published As

Publication number Publication date
CN112116640B (zh) 2024-02-23

Similar Documents

Publication Publication Date Title
US11488418B2 (en) Three-dimensional (3D) pose estimation from a monocular camera
US10964061B2 (en) Learning-based camera pose estimation from images of an environment
US10984286B2 (en) Domain stylization using a neural network model
US11508076B2 (en) Learning rigidity of dynamic scenes for three-dimensional scene flow estimation
JP6745328B2 (ja) 点群データを復旧するための方法及び装置
US11017556B2 (en) Iterative spatio-temporal action detection in video
US10872399B2 (en) Photorealistic image stylization using a neural network model
US9830701B2 (en) Static object reconstruction method and system
US11430134B2 (en) Hardware-based optical flow acceleration
CN111311650B (zh) 一种点云数据的配准方法、装置及存储介质
US11062471B1 (en) Neural network system for stereo image matching
CN107679537A (zh) 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法
US11367195B2 (en) Image segmentation method, image segmentation apparatus, image segmentation device
CN107316324B (zh) 基于cuda实现的实时立体匹配及优化的方法
CN110738730A (zh) 点云匹配方法、装置、计算机设备和存储介质
CN112734824A (zh) 一种基于广义光度立体模型的三维重建方法
CN112116640B (zh) 一种基于OpenCL的双目立体匹配方法
US11348261B2 (en) Method for processing three-dimensional point cloud data
Li et al. Pillar-based 3D object detection from point cloud with multiattention mechanism
CN115631317B (zh) 隧道衬砌正射影像生成方法及装置、存储介质、终端
CN112116641B (zh) 一种基于OpenCL的散斑图像匹配方法
CN109993695A (zh) 一种不规则图形标注的图像碎片拼接方法及系统
CN112232372B (zh) 一种基于opencl的单目立体匹配及加速的方法
CN115239559A (zh) 一种融合视图合成的深度图超分辨率方法及系统
US11055381B1 (en) Estimating product integrals using a composition of warps

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant