CN108269228B - 基于gpu并行计算的无人机影像拉花区域自动探测方法 - Google Patents
基于gpu并行计算的无人机影像拉花区域自动探测方法 Download PDFInfo
- Publication number
- CN108269228B CN108269228B CN201810126064.4A CN201810126064A CN108269228B CN 108269228 B CN108269228 B CN 108269228B CN 201810126064 A CN201810126064 A CN 201810126064A CN 108269228 B CN108269228 B CN 108269228B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- garland
- gpu
- unmanned plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于GPU并行计算的无人机影像拉花区域自动探测方法,包括CPU端加载原始无人机影像、影像内方位元素、外方位元素和数字高程模型DEM,并根据中心投影构像方程计算正射纠正后正射影像的大小和范围;CPU端创建GPU线程格网、开辟相应的显存,并拷入数据;GPU端按线程格网从纠正后影像像素反算其对应原始影像上的像素坐标;GPU端进行拉花像素判断;GPU端按线程格网对探测结果二值图像进行图像腐蚀和图像膨胀处理;CPU端将拉花检测后的二值图像结果从GPU全局存储器拷到内存,并将二值图像矢量化,获得拉花变形区域矢量数据等步骤。其显著效果是:实现了无人机单片正射影像中拉花变形区域探测的自动化,极大提高了无人机单片正射影像拉花区域探测效率。
Description
技术领域
本发明涉及到无人机航摄影像处理技术领域,具体地说,是一种基于GPU并行计算的无人机影像拉花区域自动探测方法。
背景技术
数字正射影像图(DOM)可以通过无人机航拍影像结合地形数据(数字高程模型DEM)根据中心投影构像方程利用反解法数字微分纠正原理逐像素计算地面点与原始影像上像素的关系,并进行灰度重采样得到的既有正确的位置信息又有丰富的纹理信息的影像图。无人机具有机动灵活、成本小、影像分辨率高等优势在数字正射影像制作更新工作中发挥着越来越的作用。而无人机影像正射纠正是正射影像制作中的重要一环,正射纠正是利用无人机原始影像及其内外方位元素、数字高程模型DEM根据中心投影构像方程共同消除原始无人机影像中各种畸变(如投影差)而得到一幅既有地理坐标位置信息又有纹理信息的新影像的过程。由于地形起伏和中心投影的成像方式和影像拍摄瞬间相机的姿态位置等原因,不能保证所有地面点都能在无人机影像上成像,如坡势较陡的山坡可能会被山顶所遮挡。无人机影像正射纠正是根据地面点位置计算原始影像上对应的像素,然后进行灰度重采样,在被遮挡的区域或是成像信息匮乏的区域重采样将会过于稠密或是重复采样,这样就会造成正射纠正后影像出现拉伸现象,如果拉伸过度就会造成纹理失真的现象,我们称之为“拉伸变形”,纹理失真的区域我们称之为“拉花变形区域”。拉伸变形造成的纹理失真直接影响着数字正射影像图的质量,特别是山地区域拉伸变形现象特别严重,直接影响着数字正射影像图制作的效率。
在正常的数字正射影像制作中,如果出现拉花变形,需要人工目视辨别和寻找,然后再通过修改DEM再纠正的方式进行处理。目前,无人机正射影像拉花区域自动探测的方法较少,已有方法效率低下无法满足大序列无人机影像拉花区域自动探测的需求,同时现有方法漏检率也非常高,无法保证拉花区域自动探测结果的质量。
发明内容
针对现有技术的不足,本发明的目的是提供一种基于GPU并行计算的无人机影像拉花区域自动探测方法,利用无人机原始影像及其内、外方位元素和测区数字高程模型DEM,基于GPU并行处理技术快速准确地检测出纠正后单片正射影像上的拉花变形区域,达到拉花变形自动、快速探测的目的。
为达到上述目的,本发明采用的技术方案如下:
一种基于GPU并行计算的无人机影像拉花区域自动探测方法,其关键在于按照以下步骤进行处理:
步骤1:CPU端加载原始无人机影像、影像内方位元素、外方位元素和数字高程模型DEM,根据中心投影构像方程计算正射纠正后正射影像的大小和范围,计算方法如下:
步骤1-1:将原始无人机影像、影像内方位元素、外方位元素和数字高程模型DEM等数据读入内存中,计算原始无人机影像四个角点(x1,y1),(x2,y2),(x3,y3),(x4,y4)对应地面点的坐标(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4),计算公式为:
其中,(X,Y)为地面点坐标,(x,y)为像点坐标,Xs,Ys,Zs为影像外方位元素中的三个线元素,a1,b1,c1,a2,b2,c2,a3,b3,c3为影像外方位元素中三个角元素计算得到的旋转矩阵中的9个参数,f为相机焦距,Z0为测区平均高程值;
步骤1-2:按照公式计算地面点坐标(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4)在X、Y方向的极值Xmin,Xmax,Ymin,Ymax;
步骤1-3:根据四个极值计算得到正射纠正后正射影像的列数widthdst和行数heightdst,计算公式为:
其中,M是正射纠正后影像的分辨率;
步骤2:CPU端根据纠正后正射影像大小创建GPU线程格网,开辟相应的显存,并将相应数据从内存拷贝入对应显存;
步骤3:GPU端按线程格网从纠正后影像像素反算其对应原始影像上的像素坐标;
步骤4:GPU端按照线程格网统计当前像素与周边像素重叠次数,并判断其是否为拉花像素;
步骤5:GPU端按线程格网对探测结果二值图像进行图像腐蚀与图像膨胀处理;
步骤6:CPU端将拉花检测后的二值图像结果从全局存储器拷到内存,并将二值图像矢量化,获得拉花变形区域矢量数据。
进一步的,步骤3中所述原始影像上的像素坐标求解步骤为:
步骤3-1:GPU端所有线程同时执行,根据当前线程索引计算当前像素的地面点坐标;
步骤3-2:根据地面点坐标和数字高程模型DEM,采用双线性内插法内插出该点的高程值;
步骤3-3:计算当前地面点在原始影像上的像点坐标,并判断该坐标是否在原始影像内部;
步骤3-4:等待所有线程计算完毕后,将整幅正射影像反算得到的每个像素对应原始影像像点位置存储在全局存储器中。
进一步的,步骤4中拉花像素的判断步骤为:
步骤4-1:按照线程索引以当前像素为中心,建立一个适当大小的方形窗口;
步骤4-2:遍历和统计方形窗口中所有像素对应的原始影像上像点坐标和当前中心像素对应原始影像像点坐标的重叠次数;
步骤4-3:当重叠次数大于阈值时,在检测结果影像上将当前中心像素标记为拉花像素,否则标记为非拉花像素;
步骤4-4:等待所有线程计算完毕,并将拉花像素判定结果存储到全局存储器中。
进一步的,步骤5中对二值图像进行图像形态学处理的步骤为:
步骤5-1:按照线程索引以当前像素为中心,建立一个适当大小的方形腐蚀窗口,若当前中心像素灰度值为g1时进入步骤5-2;
步骤5-2:遍历腐蚀窗口中每一个像素,统计灰度值为g1的像素个数sum,若sum小于腐蚀窗口内像素总个数的一半时,将当前中心像素赋值为0;
步骤5-3:按照线程索引以当前像素为中心,建立一个适当大小的方形膨胀窗口;
步骤5-4:将当前像素对应的灰度值为与灰度阈值g2进行比较,若相等则遍历膨胀窗口中每一个像素,并将其对应的灰度值赋值为灰度阈值g2;
步骤5-5:等待所有线程计算完毕,并将计算结果存储到全局存储器中。
进一步的,所述灰度阈值g1=g2=255。
进一步的,步骤6中所述矢量数据的获得步骤为:
步骤6-1:CPU端将拉花检测后的二值图像结果从全局存储器拷贝到内存中,同时释放已经开辟的GPU存储器;
步骤6-2:对二值图像中拉花变形区域进行边缘检测及提取,并存储为矢量数据。
本方案中,首先CPU端读取原始无人机影像及其内、外方位元素、测区DEM,并计算正射纠正后对应正射影像的大小和范围;然后CPU端根据纠正后正射影像大小分配线程格网开辟多种GPU存储器,并将DEM等数据绑定在相应存储器;接着GPU端根据中心投影构像方程利用反解法计算正射影像上每个像素在原始影像上的像点坐标;再由GPU端统计正射影像上每个像素与周边像素所对应原始影像像点的重叠次数判断其是否为变形像素,生成变形区域二值图像,并进行图像腐蚀和膨胀处理;最后CPU端将最终拉花区域检测结果二值图像从GPU显存拷贝到内存,在内存中对二值图像进行矢量化处理,得到单片无人机正射影像上变形区域的矢量数据。
本发明的显著效果是:利用无人机原始影像及其内、外方位元素和测区数字高程模型DEM等数据,不仅实现了无人机单片正射影像中拉花变形区域探测的自动化,解决了传统人工目视辨别查找费时费力和人为遗漏的问题;还将GPU并行计算技术成功运用于无人机单片正射影像拉花区域自动探测中,探测效率是传统CPU串行算法的40倍左右,极大提高了无人机单片正射影像拉花区域探测效率。
附图说明
图1是本发明的方法流程图;
图2是无人机正射影像上检测出的拉花区域局部1;
图3是无人机正射影像上检测出的拉花区域局部2。
具体实施方式
下面结合附图对本发明的具体实施方式以及工作原理作进一步详细说明。
如图1所示,一种基于GPU并行计算的无人机影像拉花区域自动探测方法,具体步骤如下:
步骤1:CPU端加载原始无人机影像、影像内方位元素、外方位元素和数字高程模型DEM,根据中心投影构像方程计算正射纠正后正射影像的大小和范围,计算方法如下:
步骤1-1:将原始无人机影像、影像内外方位元素、数字高程模型DEM等数据读入到内存中,并根据公式(1)计算原始影像四角点(x1,y1),(x2,y2),(x3,y3),(x4,y4)对应地面点的坐标(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4)。
其中,(X,Y)为地面点坐标,(x,y)为像点坐标,Xs,Ys,Zs为影像外方位元素中的三个线元素,a1,b1,c1,a2,b2,c2,a3,b3,c3为影像外方位元素中三个角元素计算得到的旋转矩阵中的9个参数,f为相机焦距,Z0为该测区平均高程值;
步骤1-2:按照公式(2)计算四个角点对应的地面点坐标(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4)在X、Y方向的极值Xmin,Xmax,Ymin,Ymax,则(Xmin,Ymax)为正射纠正后正射影像左上角的地理坐标;
步骤1-3:根据公式(3),采用上述的四个极值Xmin,Xmax,Ymin,Ymax计算得到正射纠正后正射影像的列数widthdst和行数heightdst;
其中,M是正射纠正后影像的分辨率;
步骤2:CPU端根据纠正后正射影像大小创建GPU线程格网,开辟相应的显存,并将相应数据从内存拷贝入对应显存,具体过程如下所述:
GPU并行计算是依托GPU多线程之间的并行计算,而GPU线程则是通过线程格网进行组织和调度的。正射纠正是对影像每个像素进行重采样的过程,因此总的计算任务为widthdst*heightdst,也就是说至少需要一个包含widthdst*heightdst个线程的线程格网,线程格网中每个线程对应一个像素。线程格网是由一个个线程块组成,如果按照二维线程格网进行组织,线程块的大小为dimBlock(N,N),即每个线程块中有N*N个线程,格网dimGrid的大小可以根据公式(4)计算得到:
GPU共有六种存储器:寄存器、局部存储器、共享存储器、全局存储器、常数存储器和纹理存储器,每种存储器的大小和访问速度均不相同,构成了GPU多层次性存储的特点。有效利用GPU多层次性存储的特点,可以进一步提高GPU的计算效率。线程格网中的每条线程拥有仅供自己访问的寄存器与局部存储器,同一个线程块中的线程能够读写块内的共享存储器,全局存储器可以供格网内的所有线程读写,而常数存储器和纹理存储器只能被格网内的所有线程读取,不能进行写操作。
因此针对不同大小的数据及其访问方式,选择不同的存储器可以有效提高数据的访问速度和处理能力,因此本方法中将供每条线程访问且数据量大的DEM存储在纹理存储器中,利用纹理存储器缓存加速的特点提高访问效率,将每条线程读取且数据量较小的原始影像内外方位元素存储在访问速度较快的常数存储器中,将大量的中间计算结果存放在全局存储器中。
步骤3:GPU端按线程格网从纠正后影像像素反算其对应原始影像上的像素坐标;求解步骤为:
步骤3-1:利用公式(5)根据当前线程索引计算当前像素的地面点坐标(X,Y),其中M为正射影像的地面分辨率,(row,col)为当前线程索引对应像素所在的行列坐标,(Xmin,Ymax)为正射纠正后正射影像的左上角点坐标,heightdst为正射纠正后影像的行数。
步骤3-2:根据地面点坐标(X,Y)和数字高程模型DEM,采用双线性内插法内插出该点的高程值Z:
首先,根据目标点的坐标(X,Y)和DEM坐标变换参数按照公式(6)得到目标点在DEM格网中的行列数(RDEM,CDEM),式中(X0DEM,Y0DEM)是DEM数据左上角的地理坐标,CellsizeDEM是DEM数据相邻两点之间的间隔。
然后,根据(RDEM,CDEM)得到DEM格网中最邻近的四个高程点Zzsh,Zysh,Zyx,Zzx,然后根据公式(7)双线性内插出该点的高程值Z,其中dx,dy为该点距离高程点Zzsh在x,y方向上距离。
步骤3-3:根据公式(8)计算地面点(X,Y,Z)在原始影像上的像点坐标(s,l):其中,Xs,Ys,Zs为影像外方位元素中影像拍摄瞬间,摄影中心的坐标,a1,b1,c1,a2,b2,c2,a3,b3,c3为影像外方位元素中三个角元素计算得到的旋转矩阵中9个参数,f为相机焦距。
并根据公式(9)判断坐标(s,l)是否在原始影像内部,如果在外部则将s,l的值其设置为-1,widthsrc和heightsrc分别为原始影像的列数和行数。
步骤3-4:等待所有线程计算完毕后,将整幅正射影像反算得到的每个像素对应原始影像像点位置存储在全局存储器中。
步骤4:GPU端按照线程格网统计当前像素与周边像素重叠次数,并判断其是否为拉花像素,在处理计算时GPU端根据线程格网进行并行计算,每条线程对应一个像素,所有线程并行执行:
步骤4-1:按照线程索引以当前像素(row,col)为中心,建立一个适当大小的方形窗口Win1[20,20],当前像素对应原始影像上的像点坐标为(S,L);
步骤4-2:设重叠像素个数num=0,遍历方形窗口Win1[20,20]中每一个像素对应的原始影像上像点坐标(ri,ci)∈Win1[20,20]与当前像素对应的原始影像上像点坐标(S,L)对比,若满足公式(10)则令num=num+1,此实例中δ=0.8;
步骤4-3:当重叠次数num大于阈值2时,将该像素视为拉花像素,在探测结果二值图像上将其标记为拉花像素(灰度值为255),否则标记为非拉花像素(灰度值为0);
步骤4-4:等待所有线程计算完毕,并将拉花像素判定结果存储到全局存储器中。
步骤5:GPU端按线程格网对探测结果二值图像进行图像腐蚀处理和图像膨胀处理:
首先进行图像腐蚀处理步骤:
步骤5-1:按照线程索引以当前像素(row,col)为中心,建立一个大小为3*3的方形腐蚀窗口Win2[3,3],若当前中心像素灰度值为g1=255时进入步骤5-2;
步骤5-2:遍历腐蚀窗口中每一个像素(ri,ci)∈Win2[3,3],统计灰度值为g1的像素个数sum,若sum小于4,则该中心像素赋值为0;
然后进行图像膨胀处理步骤:
步骤5-3:按照线程索引以当前像素(row,col)为中心,建立一个大小为5*5的方形膨胀窗口Win3[5,5],当前像素对应的灰度值为gray0;
步骤5-4:将当前像素对应的灰度值为与灰度阈值g2=255进行比较,若gray0=g2则遍历膨胀窗口中每一个像素(ri,ci)∈Win3[5,5],并将其对应的灰度值赋值为灰度阈值g2=255;
步骤5-5:等待所有线程计算完毕,并将计算结果存储到全局存储器中。
最后进入步骤6:CPU端将拉花检测后的二值图像结果从全局存储器拷到内存,并将二值图像矢量化,获得拉花变形区域矢量数据,获得步骤为:
步骤6-1:CPU端将拉花检测后的二值图像结果从全局存储器拷贝到内存中,同时释放已经开辟的GPU存储器;
步骤6-2:对二值图像中拉花变形区域进行边缘检测及提取,并存储为矢量数据。
本方案中,首先CPU端读取原始无人机影像及其内、外方位元素、测区DEM,并计算正射纠正后对应正射影像的大小和范围;然后CPU端根据纠正后正射影像大小分配线程格网开辟多种GPU存储器,并将DEM等数据绑定在相应存储器;接着GPU端根据中心投影构像方程利用反解法计算正射影像上每个像素在原始影像上的像点坐标;再由GPU端统计正射影像上每个像素与周边像素所对应原始影像像点的重叠次数,判断其是否为变形像素生成变形区域二值图像,并进行图像腐蚀和膨胀处理;最后CPU端将最终拉花区域检测结果二值图像从GPU显存拷贝到内存,在内存中对二值图像进行矢量化处理,得到单片无人机正射影像上变形区域的矢量数据,如图2与图3白色实线框中所示,从而不仅实现了无人机单片正射影像中拉花变形区域探测的自动化,极大提高了无人机单片正射影像拉花区域探测效率。
Claims (5)
1.一种基于GPU并行计算的无人机影像拉花区域自动探测方法,其特征在于按照以下步骤进行处理:
步骤1:CPU端加载原始无人机影像、影像内方位元素、外方位元素和数字高程模型DEM,根据中心投影构像方程计算正射纠正后正射影像的大小和范围,计算方法如下:
步骤1-1:将原始无人机影像、影像内方位元素、外方位元素和数字高程模型DEM等数据读入内存中,计算原始无人机影像四个角点(x1,y1),(x2,y2),(x3,y3),(x4,y4)对应地面点的坐标(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4),计算公式为:
其中,(X,Y)为地面点坐标,(x,y)为像点坐标,Xs,Ys,Zs为影像外方位元素中的三个线元素,a1,b1,c1,a2,b2,c2,a3,b3,c3为影像外方位元素中三个角元素计算得到的旋转矩阵中的9个参数,f为相机焦距,Z0为测区平均高程值;
步骤1-2:按照公式计算地面点坐标(X1,Y1),(X2,Y2),(X3,Y3),(X4,Y4)在X、Y方向的极值Xmin,Xmax,Ymin,Ymax;
步骤1-3:根据四个极值计算得到正射纠正后正射影像的列数widthdst和行数heightdst,计算公式为:
其中,M是正射纠正后正射影像的分辨率;
步骤2:CPU端根据正射纠正后正射影像大小创建GPU线程格网,开辟相应的显存,并将相应数据从内存拷贝入对应显存;
步骤3:GPU端按线程格网从正射纠正后正射影像像素反算其对应原始影像上的像素坐标;
步骤4:GPU端按照线程格网统计当前像素与周边像素重叠次数,并判断其是否为拉花像素;
步骤5:GPU端按线程格网对拉花检测后的二值图像进行图像腐蚀与图像膨胀处理;
步骤6:CPU端将拉花检测后的二值图像结果从全局存储器拷到内存,并将二值图像矢量化,获得拉花变形区域矢量数据;
步骤5中对二值图像进行图像腐蚀与图像膨胀处理的步骤为:
步骤5-1:按照线程索引以当前像素为中心,建立一个适当大小的方形腐蚀窗口,若当前中心像素灰度值为g1时进入步骤5-2;
步骤5-2:遍历腐蚀窗口中每一个像素,统计灰度值为g1的像素个数sum,若sum小于腐蚀窗口内像素总个数的一半时,将当前中心像素赋值为0;
步骤5-3:按照线程索引以当前像素为中心,建立一个适当大小的方形膨胀窗口;
步骤5-4:将当前像素对应的灰度值为与灰度阈值g2进行比较,若相等则遍历膨胀窗口中每一个像素,并将其对应的灰度值赋值为灰度阈值g2;
步骤5-5:等待所有线程计算完毕,并将计算结果存储到全局存储器中。
2.根据权利要求1所述的基于GPU并行计算的无人机影像拉花区域自动探测方法,其特征在于:步骤3中所述原始影像上的像素坐标求解步骤为:
步骤3-1:GPU端所有线程同时执行,根据当前线程索引计算当前像素的地面点坐标;
步骤3-2:根据地面点坐标和数字高程模型DEM,采用双线性内插法内插出该点的高程值;
步骤3-3:计算当前地面点在原始影像上的像点坐标,并判断该坐标是否在原始影像内部;
步骤3-4:等待所有线程计算完毕后,将整幅正射影像反算得到的每个像素对应原始影像像点位置存储在全局存储器中。
3.根据权利要求1所述的基于GPU并行计算的无人机影像拉花区域自动探测方法,其特征在于:步骤4中拉花像素的判断步骤为:
步骤4-1:按照线程索引以当前像素为中心,建立一个适当大小的方形窗口;
步骤4-2:遍历和统计方形窗口中所有像素对应的原始影像上像点坐标和当前中心像素对应原始影像像点坐标的重叠次数;
步骤4-3:当重叠次数大于阈值时,在检测结果影像上将当前中心像素标记为拉花像素,否则标记为非拉花像素;
步骤4-4:等待所有线程计算完毕,并将拉花像素判定结果存储到全局存储器中。
4.根据权利要求1所述的基于GPU并行计算的无人机影像拉花区域自动探测方法,其特征在于:所述灰度值g1与灰度阈值g2的值为255。
5.根据权利要求1所述的基于GPU并行计算的无人机影像拉花区域自动探测方法,其特征在于:步骤6中所述矢量数据的获得步骤为:
步骤6-1:CPU端将拉花检测后的二值图像结果从全局存储器拷贝到内存中,同时释放已经开辟的显存;
步骤6-2:对二值图像中拉花变形区域进行边缘检测及提取,并存储为矢量数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810126064.4A CN108269228B (zh) | 2018-02-08 | 2018-02-08 | 基于gpu并行计算的无人机影像拉花区域自动探测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810126064.4A CN108269228B (zh) | 2018-02-08 | 2018-02-08 | 基于gpu并行计算的无人机影像拉花区域自动探测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108269228A CN108269228A (zh) | 2018-07-10 |
CN108269228B true CN108269228B (zh) | 2019-01-29 |
Family
ID=62773862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810126064.4A Active CN108269228B (zh) | 2018-02-08 | 2018-02-08 | 基于gpu并行计算的无人机影像拉花区域自动探测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108269228B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109859191B (zh) * | 2019-01-31 | 2021-02-09 | 浙江工业大学 | 一种基于并行计算的像素筛查方法 |
CN113538204A (zh) * | 2021-06-30 | 2021-10-22 | 上海联影医疗科技股份有限公司 | 图像数据处理方法、装置、计算机设备和存储介质 |
CN115423696B (zh) * | 2022-07-29 | 2024-06-18 | 上海海洋大学 | 一种自适应线程参数的遥感正射影像并行生成方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5281518B2 (ja) * | 2009-08-25 | 2013-09-04 | アジア航測株式会社 | 立体画像生成装置 |
CN102184397A (zh) * | 2011-04-25 | 2011-09-14 | 中国测绘科学研究院 | 遥感影像的快速正射纠正方法 |
CN103077209B (zh) * | 2012-12-28 | 2016-01-20 | 深圳先进技术研究院 | 一种支持大规模并发的三维空间数据放置方法 |
CN104180794B (zh) * | 2014-09-02 | 2016-03-30 | 西安煤航信息产业有限公司 | 数字正射影像拉花区域的处理方法 |
WO2016151730A1 (ja) * | 2015-03-23 | 2016-09-29 | 三菱電機株式会社 | 画像補正装置および画像補正方法 |
CN106815807B (zh) * | 2017-01-11 | 2018-02-06 | 重庆市地理信息中心 | 一种基于gpu‑cpu协同的无人机影像快速镶嵌方法 |
-
2018
- 2018-02-08 CN CN201810126064.4A patent/CN108269228B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108269228A (zh) | 2018-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108230326B (zh) | 基于gpu-cpu协同的卫星影像拉花变形快速检测方法 | |
CN106815807B (zh) | 一种基于gpu‑cpu协同的无人机影像快速镶嵌方法 | |
CN110211043B (zh) | 一种用于全景图像拼接的基于网格优化的配准方法 | |
CN108269228B (zh) | 基于gpu并行计算的无人机影像拉花区域自动探测方法 | |
CN104732482B (zh) | 一种基于控制点的多分辨率图像拼接方法 | |
CN107248159A (zh) | 一种基于双目视觉的金属工件缺陷检测方法 | |
CN109376641B (zh) | 一种基于无人机航拍视频的运动车辆检测方法 | |
CN106251326B (zh) | 一种利用鬼影像的建筑物遮挡检测及遮挡区域补偿方法 | |
CN111242848B (zh) | 基于区域特征配准的双目相机图像缝合线拼接方法及系统 | |
CN107220996B (zh) | 一种基于三角结构一致的无人机线阵与面阵影像匹配方法 | |
CN109754440A (zh) | 一种基于全卷积网络和均值漂移的阴影区域检测方法 | |
CN113793270A (zh) | 一种基于无人机姿态信息的航拍图像几何校正方法 | |
CN108335261B (zh) | 一种光学遥感卫星正射影像拉花区域自动检测方法 | |
CN110428425A (zh) | 一种基于海岸线矢量数据的sar图像海陆分离方法 | |
CN108269234B (zh) | 一种全景相机镜头姿态估计方法及全景相机 | |
CN104180794B (zh) | 数字正射影像拉花区域的处理方法 | |
CN111003214A (zh) | 基于云控制的国产陆地观测卫星姿轨精化方法 | |
CN114372992A (zh) | 一种基于动平台的边缘角点检测四目视觉算法 | |
CN112946679A (zh) | 一种基于人工智能的无人机测绘果冻效应检测方法及系统 | |
CN114119437B (zh) | 一种基于gms的用于改善运动物体畸变的图像拼接方法 | |
CN110223356A (zh) | 一种基于能量生长的单目相机全自动标定方法 | |
CN105894494A (zh) | 基于gpu技术的三线阵立体航测相机并行谱段配准方法 | |
CN108257130B (zh) | 一种航空正射影像全景图拉花区域快速检测方法 | |
CN113592744B (zh) | 一种适用于高分辨率遥感影像的几何精校正方法 | |
US11699303B2 (en) | System and method of acquiring coordinates of pupil center point |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: No. 231, test village, Jiangbei District, Chongqing Patentee after: Chongqing geographic information and Remote Sensing Application Center (Chongqing surveying and mapping product quality inspection and testing center) Address before: 400020 Jiangbei District, Chongqing electric measuring Village No. 231 Patentee before: Chongqing Geographical Information Center |