CN115439328A - 一种图像拼接方法、装置、电子设备及存储介质 - Google Patents

一种图像拼接方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN115439328A
CN115439328A CN202211189963.1A CN202211189963A CN115439328A CN 115439328 A CN115439328 A CN 115439328A CN 202211189963 A CN202211189963 A CN 202211189963A CN 115439328 A CN115439328 A CN 115439328A
Authority
CN
China
Prior art keywords
image
spliced
information
images
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211189963.1A
Other languages
English (en)
Inventor
王世莲
王亮
韩俊俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Cloudcentury Information Technology Co ltd
Original Assignee
Qingdao Cloudcentury Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Cloudcentury Information Technology Co ltd filed Critical Qingdao Cloudcentury Information Technology Co ltd
Priority to CN202211189963.1A priority Critical patent/CN115439328A/zh
Publication of CN115439328A publication Critical patent/CN115439328A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本申请的实施例提供了一种图像拼接方法、装置、电子设备及存储介质,涉及图像处理领域,方法包括:获取无人机拍摄得到的多张待拼接图像以及表征无人机拍摄范围的成果图像,获取成果图像中各像素点的坐标位置,确定各待拼接图像的参数信息,针对每张待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息,将每张待拼接图像的边界点坐标信息分别与成果图像中各像素点的坐标位置进行匹配,得到每张待拼接图像在成果图像中对应的区域范围,将各待拼接图像分别与成果图像中相应的区域范围融合,得到拼接后的目标图像。通过确定待拼接图像的边界点坐标信息,即可实现图像拼接,可以降低图像拼接的成本以及提高图像拼接的效率。

Description

一种图像拼接方法、装置、电子设备及存储介质
技术领域
本申请涉及图像处理技术领域,具体而言,涉及一种图像拼接方法、装置、电子设备及存储介质。
背景技术
目前,对于无人机拍摄的图像拼接时,需要对拍摄的各图像进行特征点提取,将有相同特征点的图像进行拼接。这一过程一般需要专业的数据处理工程师利用多个专业软件对图像和阶段成果进行特殊处理,在特殊处理过程中需要专业的数据处理服务器进行支撑,得到最终的拼接图像。
上述图像拼接方式处理时间较长,且还需要服务器具有强大的运算能力,增加图像拼接的成本。
发明内容
本申请的目的在于提供一种图像拼接方法、装置、电子设备及存储介质,能够提高图像拼接的效率。
为了实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请实施例提供了一种图像拼接方法,所述方法包括:
获取无人机拍摄得到的多张待拼接图像以及表征所述无人机拍摄范围的成果图像;
获取所述成果图像中各像素点的坐标位置;
确定各所述待拼接图像的参数信息;
针对每张所述待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息,其中,所述边界点坐标信息表征所述待拼接图像的左上顶点、左下顶点、右上顶点以及右下顶点的坐标信息;
将每张所述待拼接图像的边界点坐标信息分别与所述成果图像中各像素点的坐标位置进行匹配,得到每张所述待拼接图像在所述成果图像中对应的区域范围;
将各所述待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像。
在可选的实施方式中,所述获取所述成果图像中各像素点的坐标位置的步骤,包括:
确定无人机的空间作业范围和无人机相机参数;
获取无人机拍摄的拍摄图像;
确定所述拍摄图像的栅格信息;
基于所述栅格信息和所述无人机相机参数对所述空间作业范围进行仿射变换,得到所述成果图像中各像素点的坐标位置。
在可选的实施方式中,所述参数信息包括:拍摄待拼接图像的无人机的传感器信息、焦距、偏航角、俯仰角、翻滚角、拍摄高度以及所述待拼接图像的中心点坐标,所述针对每张所述待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息的步骤,包括:
确定所述传感器信息的宽度信息和高度信息;
针对每张所述待拼接图像,基于所述传感器的宽度信息、高度信息以及所述焦距,确定该待拼接图像的实际宽度信息和实际高度信息;
基于所述实际宽度信息、俯仰角、翻滚角、拍摄高度以及所述实际高度信息,确定每张所述待拼接图像的中心点到图像边缘的垂直距离,其中,所述图像边缘包括上边缘、下边缘、左边缘以及右边缘;
基于所述中心点坐标、所述中心点到图像边缘的垂直距离以及偏航角,确定每张所述待拼接图像的边界点坐标信息。
在可选的实施方式中,每张所述待拼接图像的实际宽度信息和实际高度信息满足以下公式:
实际宽度信息=2.0*tan(x/f/2);
实际高度信息=2.0*tan(y/f/2);
其中,x为传感器的宽度信息,y为传感器的高度信息,f为焦距。
在可选的实施方式中,每张所述待拼接图像的中心点到图像边缘的垂直距离满足以下公式:
bottom=H*tan(Pitch-0.5*yView);
top=H*tan(Pitch+0.5*yView);
left=H*tan(Roll-0.5*xView);
right=H*tan(Roll+0.5*xView);
其中,bottom为中心点到下边缘的垂直距离,top为中心点到上边缘的垂直距离,left为中心点为左边缘的垂直距离,right为中心点到右边缘的垂直距离,H为拍摄高度,Pitch为俯仰角,yView为实际高度信息,xView为实际宽度信息,Roll为翻滚角。
在可选的实施方式中,所述方法还包括:对各所述待拼接图像的边缘进行羽化处理;
所述将各所述待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像的步骤,包括:
将各羽化后的待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像。
在可选的实施方式中,所述将各所述待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像的步骤,包括:
针对每张所述待拼接图像,将该待拼接图像和该待拼接图像相应的区域范围按照预设尺寸进行分割,得到多个待拼接子图像和多个子区域范围;
将各待拼接子图像融合至相应的子区域范围,得到拼接后的目标图像。
第二方面,本申请实施例提供了一种图像拼接装置,所述装置包括:
第一获取模块,用于获取无人机拍摄得到的多张待拼接图像以及表征所述无人机拍摄范围的成果图像;
第二获取模块,用于确定所述成果图像中各像素点的坐标位置;
第一确定模块,用于确定各所述待拼接图像的参数信息;
第二确定模块,用于针对每张所述待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息,其中,所述边界点坐标信息表征所述待拼接图像的左上顶点、左下顶点、右上顶点以及右下顶点的坐标信息;
匹配模块,用于将每张所述待拼接图像的边界点坐标信息分别与所述成果图像中各像素点的坐标位置进行匹配,得到每张所述待拼接图像在所述成果图像中对应的区域范围;
融合模块,用于将各所述待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像。
第三方面,本申请实施例提供了一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现所述图像拼接方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现所述图像拼接方法的步骤。
本申请具有以下有益效果:
本申请通过获取无人机拍摄得到的多张待拼接图像以及表征无人机拍摄范围的成果图像,确定成果图像中各像素点的坐标位置,确定各待拼接图像的参数信息,针对每张待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息,基于边界点坐标信息进行图像拼接,将每张待拼接图像的边界点坐标信息分别与成果图像中各像素点的坐标位置进行匹配,得到每张待拼接图像在成果图像中对应的区域范围,将各待拼接图像分别与成果图像中相应的区域范围融合,得到拼接后的目标图像,无需通过多个专业软件获取各个待拼接图像的特征点,将具有相同特征点的待拼接图像进行拼接,仅通过确定待拼接图像的边界点坐标信息,即可实现图像拼接,从而可以降低图像拼接的成本以及提高图像拼接的效率。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的电子设备的方框示意图;
图2为本申请实施例提供的一种图像拼接方法的流程图之一;
图3为本申请实施例提供的一种图像拼接方法的流程图之二;
图4为本申请实施例提供的一种图像拼接方法的流程图之三;
图5为本申请实施例提供的一种图像拼接方法的流程图之四;
图6为本申请实施例提供的待融合图像示意图;
图7为本申请实施例提供的一种图像拼接装置的结构框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本申请的描述中,需要说明的是,若出现术语“上”、“下”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
此外,若出现术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
经过发明人大量研究发现,目前对于图像拼接的方式,一般需要对拍摄的图像进行特征点的提取,将具有相同特征点的图像进行拼接,该种拼接方式耗费时间,且需要服务器具有强大的运算能力,增加图像拼接的成本。
有鉴于对上述问题的发现,本实施例提供了一种图像拼接方法、装置、电子设备及存储介质,能够通过确定待拼接图像的边界点坐标信息,即可实现图像拼接,无需通过多个专业软件获取各个待拼接图像的特征点,将具有相同特征点的待拼接图像进行拼接,从而可以降低图像拼接的成本以及提高图像拼接的效率,下面对本实施例提供的方案进行详细阐述。
本实施例提供一种可以对图像进行拼接的电子设备。在一种可能的实现方式中,所述电子设备可以为用户终端,例如,电子设备可以是,但不限于,服务器、智能手机、个人电脑(PersonalComputer,PC)、平板电脑、个人数字助理(Personal Digital Assistant,PDA)、移动上网设备(Mobile Internet Device,MID)等。
请参照图1,图1是本申请实施例提供的电子设备100的结构示意图。所述电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
所述电子设备100包括图像拼接装置110、存储器120及处理器130。
所述存储器120及处理器130各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述图像拼接装置110包括至少一个可以软件或固件(firmware)的形式存储于所述存储器120中或固化在所述电子设备100的操作系统(operating system,OS)中的软件功能模块。所述处理器130用于执行所述存储器120中存储的可执行模块,例如所述图像拼接装置110所包括的软件功能模块及计算机程序等。
其中,所述存储器120可以是,但不限于,随机存取存储器(RandomAccess Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable ProgrammableRead-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable ProgrammableRead-Only Memory,EEPROM)等。其中,存储器120用于存储程序,所述处理器130在接收到执行指令后,执行所述程序。
请参照图2,图2为应用于图1的电子设备100的一种图像拼接方法的流程图,以下将方法包括各个步骤进行详细阐述。
步骤201:获取无人机拍摄得到的多张待拼接图像以及表征无人机拍摄范围的成果图像。
步骤202:获取成果图像中各像素点的坐标位置。
步骤203:确定各待拼接图像的参数信息。
步骤204:针对每张待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息。
步骤205:将每张待拼接图像的边界点坐标信息分别与成果图像中各像素点的坐标位置进行匹配,得到每张待拼接图像在成果图像中对应的区域范围。
步骤206:将各待拼接图像分别与成果图像中相应的区域范围融合,得到拼接后的目标图像。
采用无人机对待拼接图像进行拍摄,其中,无人机拍摄的多张待拼接图像在拼接后为图像尺寸小于或者等于无人机拍摄范围的成果图像尺寸。
示例性的,成果图像的像素大小可以为2048*1536,单张待拼接图像的像素大小小于2048*1536。
为了便于后续图像拼接,需要获取成果图像中各像素中个像素点的坐标位置。示例性的,成果图像的像素大小为2048*1536时,即成果图像中包含2048*1536个像素点,获取每个像素点的坐标位置,每个像素点的坐标位置可以为经纬度坐标,也可以为平面坐标。
在采用无人机对每张待拼接图像进行拍摄时,每张待拼接图像均对应有不同参数信息,各待拼接图像的参数信息表征无人机拍摄待拼接图像时无人机的姿态,通过无人机的姿态,计算得到待拼接图像的边界点坐标信息。
需要说明的是,边界点坐标信息表征待拼接图像的左上顶点、左下顶点、右上顶点以及右下顶点的坐标信息。
为了实现各待拼接图像的拼接,基于每张待拼接图像的边界点坐标信息,从成果图像中确定对应的区域范围,将待拼接图像与相应的区域范围进行融合。
示例性的:待拼接图像包含第一待拼接图像、第二待拼接图像以及第三待拼接图像。通过确定第一待拼接图像、第二待拼接图像以及第三待拼接图像的参数信息,分别确定第一待拼接图像的第一边界点坐标信息、第二待拼接图像的第二边界点坐标信息以及第三待拼接图像的第三边界点坐标信息,分别基于第一边界点坐标信息、第二边界点坐标信息以及第三边界点坐标信息,从成果图像中确定出与第一边界点坐标信息对应的A区域,从成果图像中确定出与第二边界点坐标信息对应的B区域,从成果图像中确定出与第三边界点坐标信息对应的C区域。将第一待拼接图像与A区域融合,将第二待拼接图像与B区域融合,将第三待拼接图像与C区域进行融合,最终得到融合后的包含第一待拼接图像、第二待拼接图像以及第三待拼接图像的目标图像,完成对多张待拼接图像的拼接。
获取成果图像中各像素点的坐标位置可以有多种实现方式,在一示例中,如图3所示,具体包括以下步骤:
步骤202-1:确定无人机的空间作业范围和无人机相机参数。
步骤202-2:获取无人机拍摄的拍摄图像。
步骤202-3:确定拍摄图像的栅格信息。
步骤202-4:基于栅格信息和无人机相机参数对空间作业范围进行仿射变换,得到成果图像中各像素点的坐标位置。
仿射变换是指图像可以通过一系列的几何变换来实现平移、旋转等多种操作。该变换能够保持图像的平直性和平行性。平直性是指图像经过仿射变换后,直线仍然是直线;平行性是指图像在完成仿射变换后,平行线仍然是平行线。
需要说明的是,栅格信息可以包括像素信息、比率信息等表征拍摄图像的基础信息。
基于栅格信息和无人机相机参数对空间作业范围进行仿射变换,可以将无人机从三维空间作业范围转换为无人机拍摄二维平面范围,得到成果图像,并得到成果图像中各个像素点的坐标位置。
需要说明的是,成果图像的各像素的坐标位置包括成果图像的四个顶点的坐标位置,基于成果图像的四个顶点的坐标位置可以将成果图像的在实际地理位置下进行位置固定,在实际地理位置下,成果图像中各个像素的位置信息即为对应的实际地理位置。
成果图像的四个顶点的坐标位置包括左上顶点坐标、左下顶点坐标、右上顶点坐标以及右下顶点坐标。
基于待拼接图像的参数信息,确定待拼接图像的边界点坐标信息可以有多种实现方式,如图4所示,具体包括如下步骤在一示例中,具体包括以下步骤:
需要说明的是,参数信息可以包括以下信息:拍摄待拼接图像的无人机的传感器信息、焦距、偏航角、俯仰角、翻滚角、拍摄高度以及所述待拼接图像的中心点坐标。
步骤204-1:确定传感器信息的宽度信息和高度信息。
步骤204-2:针对每张待拼接图像,基于传感器的宽度信息、高度信息以及焦距,确定该待拼接图像的实际宽度信息和实际高度信息。
步骤204-3:基于实际宽度信息、俯仰角、翻滚角、拍摄高度以及实际高度信息,确定每张待拼接图像的中心点到图像边缘的垂直距离。
其中,图像边缘包括上边缘、下边缘、左边缘以及右边缘。
步骤2041-4:基于中心点坐标、中心点到图像边缘的垂直距离以及偏航角,确定每张待拼接图像的边界点坐标信息。
示例性的,基于传感器的宽度信息、高度信息以及焦距,确定该待拼接图像的实际宽度信息和实际高度信息,可以采用以下公式进行计算:
实际宽度信息=2.0*tan(x/f/2);
实际高度信息=2.0*tan(y/f/2);
其中,x为传感器的宽度信息,y为传感器的高度信息,f为焦距。
基于实际宽度信息、俯仰角、翻滚角、拍摄高度以及实际高度信息,确定每张待拼接图像的中心点到图像边缘的垂直距离,可以采用以下公式进行计算:
bottom=H*tan(Pitch-0.5*yView);
top=H*tan(Pitch+0.5*yView);
left=H*tan(Roll-0.5*xView);
right=H*tan(Roll+0.5*xView);
其中,bottom为中心点到下边缘的垂直距离,top为中心点到上边缘的垂直距离,left为中心点为左边缘的垂直距离,right为中心点到右边缘的垂直距离,H为拍摄高度,Pitch为俯仰角,yView为实际高度信息,xView为实际宽度信息,Roll为翻滚角。
基于上述计算的中心点到图像边缘的垂直距离,以及待拼接图像的中心点坐标、拍摄待拼接图像的无人机偏航角,确定每张待拼接图像的边界点坐标信息,示例性的:
假设待拼接图像的中心点坐标为(PX、PY),那么任一顶点对应的坐标为(PX`,PY`)可以通过平移旋转计算得到,以左上顶点为例,将中心点坐标(PX,PY)平移top、left距离,具体公式如下:
PX`=cos(-Yaw)*left-sin(-Yaw)*tpo+PX;
PY`=sin(-Yaw)*left+cos(-Yaw)*top+PY。
基于类似方式,再分别计算出每张待拼接图像的左下顶点、右上顶点以及右下顶点的坐标。
最后将待拼接图像的左上顶点、右上顶点、左下顶点以及右下顶点的四个顶点的作为边界点坐标信息,将边界点坐标信息转为与成果图像中各像素点相同的坐标系,即当成果图像中各像素点的坐标为经纬度坐标时,将上述计算得到的每张待拼接图像的四个顶点的边界点坐标信息转换为经纬度坐标,从而便于后续匹配每个待拼接图像在成果图像中对应的区域范围。
为了使得相邻图片的边缘的融合更加自然,将各待拼接图像的边缘进行羽化处理,并将各羽化后的待拼接图像分别与成果图像中相应的区域范围融合,得到拼接后的目标图像。
需要说明的是,可以对20个像素对待拼接图像的边缘进行渐进模糊处理,从而可以避免拼接时边缘过于明显的问题。
为了进一步提高图像拼接的效率,如图5所示,在一示例中,具体包括以下步骤:
步骤206-1:针对每张所待拼接图像,将该待拼接图像和该待拼接图像相应的区域范围按照预设尺寸进行分割,得到多个待拼接子图像和多个子区域范围。
步骤206-2:将各待拼接子图像融合至相应的子区域范围,得到拼接后的目标图像。
例如:将每张待拼接图像分割为多个512*512大小的待拼接子图像,将不满足515*512大小的图像也作为待拼接子图像,将每张待拼接子图像在成果图像中对应的区域范围也按照上述方式进行分割,最终将相同位置的待拼接子图像融合至对应的子区域范围内,完成图像的拼接。
提高图像拼接效率的实现方式有多种,在另一示例中:
基于各待拼接图像的边界点坐标信息,将多张待拼接图像组成待融合图像。
例如:如图6所示,为待融合图像。待融合图像包含第一待拼接图像、第二待拼接图像、第三待拼接图像以及第四待拼接图像。
由于直接将待融合图像与成果图像融合时,会造成CPU的占用度高,并且造成图像处理效率低下。因此,将待融合图像和成果图像分割为预设尺寸的图像,将切割后待融合图像与同位置的切割后的成果图像融合,从而提高图像处理效率。
需要说明的是,分割后的待融合子图像与对应的区域子范围的经纬度相同。
请参照图7,本申请实施例还提供了一种应用于图1所述电子设备100的图像拼接装置110,所述图像拼接装置110包括:
第一获取模块111,用于获取无人机拍摄得到的多张待拼接图像以及表征所述无人机拍摄范围的成果图像;
第二获取模块112,用于确定所述成果图像中各像素点的坐标位置;
第一确定模块113,用于确定各所述待拼接图像的参数信息;
第二确定模块114,用于针对每张所述待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息,其中,所述边界点坐标信息表征所述待拼接图像的左上顶点、左下顶点、右上顶点以及右下顶点的坐标信息;
匹配模块115,用于将每张所述待拼接图像的边界点坐标信息分别与所述成果图像中各像素点的坐标位置进行匹配,得到每张所述待拼接图像在所述成果图像中对应的区域范围;
融合模块116,用于将各所述待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像。
需要说明的是,本实施例所提供的图像拼接装置,其基本原理及产生的技术效果和上述图像拼接方法实施例相同,为简要描述,本实施例部分未提及之处,可参考上述的方法实施例中相应内容。
综上,本申请通过获取无人机拍摄得到的多张待拼接图像以及表征无人机拍摄范围的成果图像,确定成果图像中各像素点的坐标位置,确定各待拼接图像的参数信息,针对每张待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息,基于边界点坐标信息进行图像拼接,将每张待拼接图像的边界点坐标信息分别与成果图像中各像素点的坐标位置进行匹配,得到每张待拼接图像在成果图像中对应的区域范围,将各待拼接图像分别与成果图像中相应的区域范围融合,得到拼接后的目标图像,无需通过多个专业软件获取各个待拼接图像的特征点,将具有相同特征点的待拼接图像进行拼接,仅通过确定待拼接图像的边界点坐标信息,即可实现图像拼接,从而可以降低图像拼接的成本以及提高图像拼接的效率。
本申请还提供一种电子设备100,电子设备100包括处理器130以及存储器120。存储器120存储有计算机可执行指令,计算机可执行指令被处理器130执行时,实现该图像拼接方法。
本申请实施例还提供一种计算机可读存储介质,存储介质存储有计算机程序,计算机程序被处理器130执行时,实现该图像拼接方法。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述,仅为本申请的各种实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种图像拼接方法,其特征在于,所述方法包括:
获取无人机拍摄得到的多张待拼接图像以及表征所述无人机拍摄范围的成果图像;
获取所述成果图像中各像素点的坐标位置;
确定各所述待拼接图像的参数信息;
针对每张所述待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息,其中,所述边界点坐标信息表征所述待拼接图像的左上顶点、左下顶点、右上顶点以及右下顶点的坐标信息;
将每张所述待拼接图像的边界点坐标信息分别与所述成果图像中各像素点的坐标位置进行匹配,得到每张所述待拼接图像在所述成果图像中对应的区域范围;
将各所述待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像。
2.根据权利要求1所述的方法,其特征在于,所述获取所述成果图像中各像素点的坐标位置的步骤,包括:
确定无人机的空间作业范围和无人机相机参数;
获取无人机拍摄的拍摄图像;
确定所述拍摄图像的栅格信息;
基于所述栅格信息和所述无人机相机参数对所述空间作业范围进行仿射变换,得到所述成果图像中各像素点的坐标位置。
3.根据权利要求1所述的方法,其特征在于,所述参数信息包括:拍摄待拼接图像的无人机的传感器信息、焦距、偏航角、俯仰角、翻滚角、拍摄高度以及所述待拼接图像的中心点坐标,所述针对每张所述待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息的步骤,包括:
确定所述传感器信息的宽度信息和高度信息;
针对每张所述待拼接图像,基于所述传感器的宽度信息、高度信息以及所述焦距,确定该待拼接图像的实际宽度信息和实际高度信息;
基于所述实际宽度信息、俯仰角、翻滚角、拍摄高度以及所述实际高度信息,确定每张所述待拼接图像的中心点到图像边缘的垂直距离,其中,所述图像边缘包括上边缘、下边缘、左边缘以及右边缘;
基于所述中心点坐标、所述中心点到图像边缘的垂直距离以及偏航角,确定每张所述待拼接图像的边界点坐标信息。
4.根据权利要求3所述的方法,其特征在于,每张所述待拼接图像的实际宽度信息和实际高度信息满足以下公式:
实际宽度信息=2.0*tan(x/f/2);
实际高度信息=2.0*tan(y/f/2);
其中,x为传感器的宽度信息,y为传感器的高度信息,f为焦距。
5.根据权利要求3所述的方法,其特征在于,每张所述待拼接图像的中心点到图像边缘的垂直距离满足以下公式:
bottom=H*tan(Pitch-0.5*yView);
top=H*tan(Pitch+0.5*yView);
left=H*tan(Roll-0.5*xView);
right=H*tan(Roll+0.5*xView);
其中,bottom为中心点到下边缘的垂直距离,top为中心点到上边缘的垂直距离,left为中心点为左边缘的垂直距离,right为中心点到右边缘的垂直距离,H为拍摄高度,Pitch为俯仰角,yView为实际高度信息,xView为实际宽度信息,Roll为翻滚角。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:对各所述待拼接图像的边缘进行羽化处理;
所述将各所述待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像的步骤,包括:
将各羽化后的待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像。
7.根据权利要求1所述的方法,其特征在于,所述将各所述待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像的步骤,包括:
针对每张所述待拼接图像,将该待拼接图像和该待拼接图像相应的区域范围按照预设尺寸进行分割,得到多个待拼接子图像和多个子区域范围;
将各待拼接子图像融合至相应的子区域范围,得到拼接后的目标图像。
8.一种图像拼接装置,其特征在于,所述装置包括:
第一获取模块,用于获取无人机拍摄得到的多张待拼接图像以及表征所述无人机拍摄范围的成果图像;
第二获取模块,用于确定所述成果图像中各像素点的坐标位置;
第一确定模块,用于确定各所述待拼接图像的参数信息;
第二确定模块,用于针对每张所述待拼接图像,基于该待拼接图像的参数信息,确定该待拼接图像的边界点坐标信息,其中,所述边界点坐标信息表征所述待拼接图像的左上顶点、左下顶点、右上顶点以及右下顶点的坐标信息;
匹配模块,用于将每张所述待拼接图像的边界点坐标信息分别与所述成果图像中各像素点的坐标位置进行匹配,得到每张所述待拼接图像在所述成果图像中对应的区域范围;
融合模块,用于将各所述待拼接图像分别与所述成果图像中相应的区域范围融合,得到拼接后的目标图像。
9.一种电子设备,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1-7任一项所述方法的步骤。
10.一种存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1-7中任一项所述方法的步骤。
CN202211189963.1A 2022-09-28 2022-09-28 一种图像拼接方法、装置、电子设备及存储介质 Pending CN115439328A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211189963.1A CN115439328A (zh) 2022-09-28 2022-09-28 一种图像拼接方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211189963.1A CN115439328A (zh) 2022-09-28 2022-09-28 一种图像拼接方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN115439328A true CN115439328A (zh) 2022-12-06

Family

ID=84249917

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211189963.1A Pending CN115439328A (zh) 2022-09-28 2022-09-28 一种图像拼接方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115439328A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173071A (zh) * 2023-11-02 2023-12-05 青岛天仁微纳科技有限责任公司 一种纳米压印模具的图像拼接方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173071A (zh) * 2023-11-02 2023-12-05 青岛天仁微纳科技有限责任公司 一种纳米压印模具的图像拼接方法
CN117173071B (zh) * 2023-11-02 2024-01-30 青岛天仁微纳科技有限责任公司 一种纳米压印模具的图像拼接方法

Similar Documents

Publication Publication Date Title
CN110135455B (zh) 影像匹配方法、装置及计算机可读存储介质
CN107301620B (zh) 基于相机阵列的全景成像方法
CN109242961B (zh) 一种脸部建模方法、装置、电子设备和计算机可读介质
CN109474780B (zh) 一种用于图像处理的方法和装置
CN109683699B (zh) 基于深度学习实现增强现实的方法、装置及移动终端
CN104966270B (zh) 一种多图像拼接方法
US8660309B2 (en) Image processing apparatus, image processing method, image processing program and recording medium
RU2631765C1 (ru) Способ и система исправления перспективных искажений в изображениях, занимающих двухстраничный разворот
CN113344998B (zh) 深度检测方法、装置、计算机设备及存储介质
CN108305291B (zh) 利用包含定位二维码的墙体广告的单目视觉定位定姿方法
JP2014071850A (ja) 画像処理装置、端末装置、画像処理方法、およびプログラム
CN114298902A (zh) 一种图像对齐方法、装置、电子设备和存储介质
US9299127B2 (en) Splitting of elliptical images
CN112243518A (zh) 获取深度图的方法、装置及计算机存储介质
CN115439328A (zh) 一种图像拼接方法、装置、电子设备及存储介质
CN114981845A (zh) 图像扫描方法及装置、设备、存储介质
WO2020049634A1 (ja) 教師データ生成装置、教師データ生成方法、および、教師データ生成システム
CN112785651B (zh) 用于确定相对位姿参数的方法和装置
CN108335329B (zh) 应用于飞行器中的位置检测方法和装置、飞行器
CN110660091A (zh) 一种图像配准处理方法、装置和拍照批改作业系统
CN116012227A (zh) 图像处理方法、装置、存储介质及处理器
CN114066731A (zh) 生成全景图的方法、装置、电子设备及存储介质
CN114387532A (zh) 边界的识别方法及其装置、终端、电子设备和无人设备
CN111062863B (zh) 3d模型与经纬度坐标绑定方法、装置、设备及存储介质
CN113313646B (zh) 图像处理方法及装置、电子设备、计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination