CN114972025A - 一种基于yuv色彩空间的图像快速拼接方法 - Google Patents

一种基于yuv色彩空间的图像快速拼接方法 Download PDF

Info

Publication number
CN114972025A
CN114972025A CN202210579134.8A CN202210579134A CN114972025A CN 114972025 A CN114972025 A CN 114972025A CN 202210579134 A CN202210579134 A CN 202210579134A CN 114972025 A CN114972025 A CN 114972025A
Authority
CN
China
Prior art keywords
image
camera
pixel
mapping
spliced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210579134.8A
Other languages
English (en)
Inventor
江子奔
罗长志
郑军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Matrixtime Robotics Shanghai Co ltd
Original Assignee
Matrixtime Robotics Shanghai Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matrixtime Robotics Shanghai Co ltd filed Critical Matrixtime Robotics Shanghai Co ltd
Priority to CN202210579134.8A priority Critical patent/CN114972025A/zh
Publication of CN114972025A publication Critical patent/CN114972025A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于YUV色彩空间的图像快速拼接方法,针对行车机构平面运动的特性建立了像素映射方程,结合编码器获取的相机位置和深度相机获取的图像深度建立像素映射表,从而实现图像像素在不同视角之间的快速变换;将像素映射方程由单个像素推广到了矩阵形式,从而可以对整张图片或者多张图片进行并行映射,可以实现大场景,多数量图片的快速拼接,针对图像拼接过程中,针对直接使用加权平均进行图像融合可能存在拼缝的问题,在保证图像拼接效果的同时,缩短了图像拼接的时间。

Description

一种基于YUV色彩空间的图像快速拼接方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于YUV色彩空间的图像快速拼接方法。
背景技术
目前主流的全景图片拼接流程都是采用相机图片进行特征匹配的方法进行全景图片拼接。在专利“一种基于SIFT特征的传送带表面物体图像拼接方法”(专利号:202110329935.4)中,使用SIFT特征进行匹配进行拼接;在专利“一种基于端到端神经网络的多路图片拼接方法”(专利号:202010553739.0)中,使用神经网络去估计图像特征和最优单应性矩阵,从而实现图像拼接。在专利“一种基于深度学习的手机实时全景拍摄方法”(专利号:202111269335.X)中也是使用SIFT特征去进行图像拼接。
但是,目前基于图像特征拼接的方法有三个问题:一是如果环境纹理和颜色信息比较简单,可能获取不到足够多很好的特征,造成特征匹配失败;二是特征的计算和匹配也很耗时;三是特征点匹配计算的单应性矩阵会造成累积误差。当然可以通过BA优化的手段去消除累积误差,但是当图像数量很多时,拼接图像的耗时将会很长。
在专利“全景视频快速拼接方法及系统”(专利号:201911001401.8)则利用了相机平移距离相对于拍摄物体距离可忽略不计的特性,提出了一种全景快速拼接方法,但是这种拼接方法在行车运动的场景下,相机的平移距离不可以忽略,所以这种拼接方法不适用。
鉴于此,实有必要提供一种新型的基于YUV色彩空间的图像快速拼接方法以克服上述缺陷。
发明内容
本发明的目的是提供一种基于YUV色彩空间的图像快速拼接方法,实现图像像素在不同视角之间的快速变换并进行并行映射,可以实现大场景,多数量图片的快速拼接融合。
为了实现上述目的,本发明提供一种基于YUV色彩空间的图像快速拼接方法,包括如下步骤:
S1:控制行车的运动机构对待拼接场景进行全局扫描,采集同一时刻相机位置t、RGB图像数据、深度图像数据,通过相机外参和相机内参将深度图数据映射到RGB图像中,得到每一个像素的深度值z;
S2:利用像素映射方程将所有图片的像素转换到初始视角的图片像素;
S3:对所有变换后的RGB值进行融合得到拼接的全景图像;
优选的,步骤S2还还包括步骤S21:利用三角测量原理得到同一个点在两个不同像素位置的关系为:
Figure BDA0003661640770000021
其中,P1是这个点在位置1处相机图像中的像素的齐次坐标,维度为3x1,z1是该点在位置1处相机图像中的深度;
P2是这个点在位置2处相机图像中的像素的齐次坐标,维度为3x1,z2是该点在位置2处相机图像中的深度;
K是相机内参;R是相机的旋转向量,t是相机的位置平移向量,
相机的旋转向量R是一个单位矩阵,相机深度z1=z2,像素映射方程可以变为:
Figure BDA0003661640770000031
将像素映射方程变为:
P1(3,n)=P2(3,n)-Kt(3,n)*diag(z(n,1))-1
通过上述P1(3,n)=P2(3,n)-Kt(3,n)*diag(z(n,1))-1的像素映射方程对一张图片进行并行映射,其中P1(3,n)是映射后的像素坐标的齐次坐标,维度为3xn,每一列均是一个映射后的像素坐标;P2(3,n)是映射前的像素坐标的齐次坐标,维度为3xn,每一列均是一个映射前的像素坐标;z(n,1)是像素坐标对应的深度向量,维度为nx1,每一行均是映射前像素的深度值;
diag(z(n,1))是对深度向量对角化,就是将n维向量映射到nxn方阵的对角线上,其余元素为0;diag(z(n,1))-1就是给对角化后的矩阵取逆;t(3,n)是相机位置平移向量,维度为3xn,每一行均分别对应在三个坐标轴上相机的平动位移;
对于同一张图片来说,n行的值相同,将映射方程变成矩阵形式之后使用GPU对图像像素变换并行映射,
如果需要对m张图片进行并行映射,则使用像素映射方程:
P1(3,n*m)=P2(3,n*m)-Kt(3,n*m)*diag(z(n*m,1))-1
通过像素映射方程得到的是初始视角的图片像素和其他相机视角位置图片像素的一个映射关系,通过这个映射关系将其他相机视角位置图像的RGB图像变换到初始视角下的相机图像,
RGB_origin[P1(3,n)(0:1,:)]=RGB[P2(3,n)(0:1,:)];
其中P1(3,n)(0:1,:)代表取P1(3,n)齐次坐标中的前两行元素,RGB_origin代表在初始视角下的相机图像,RGB代表相机运动过程中采集到的相机图像。
优选的,步骤S3还包括步骤S31:将经过转换到的初始视角的图片像素的图像作为待拼接图像,将得到的全景图像和待拼接图像分别转成灰度图,并进行二值化,通过按位与操作得到重叠区域的图像;
将初始视角的全景图片重叠区域和待拼接图像重叠区域的RGB值分别转到YUV色彩空间,计算初始视角的全景图片和待拼接图像重叠区域Y分量比值的亮度系数k,亮度系数:
Figure BDA0003661640770000041
其中,YUVB1(0,:)代表B1中所有像素的Y分量,YUVB2(0,:)代表B2中所有像素的Y分量,avg()表示对亮度系数取平均值;
将待拼接图像转到YUV色彩空间,并对所有像素的Y分量都乘以这个k系数,YUVC(0,:)=k*YUVC(0.:);
将待拼接图像从YUV色彩空间转回RGB空间,将待拼接图像直接拷贝到全景图片对应的像素上,得到融合拼接的全景图像。
与现有技术相比,有益效果在于:1)针对行车机构平面运动的特性建立了像素映射方程,结合编码器获取的相机位置和深度相机获取的图像深度建立像素映射表,从而实现图像像素在不同视角之间的快速变换。
2)本发明将像素映射方程由单个像素推广到了矩阵形式,从而可以对整张图片或者多张图片进行并行映射,可以实现大场景,多数量图片的快速拼接。
3)本发明针对图像拼接过程中直接使用加权平均进行图像融合可能存在拼缝的问题,在保证图像拼接效果的同时,缩短了图像拼接的时间。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明提供的基于YUV色彩空间的图像快速拼接方法的流程图。
图2为本发明实施例的场景示意图。
图3为本发明实施例的像素投影的原理图。
图4为本发明实施例的图像拼接融合示意图。
具体实施方式
为了使本发明的目的、技术方案和有益技术效果更加清晰明白,以下结合附图和具体实施方式,对本发明进行进一步详细说明。应当理解的是,本说明书中描述的具体实施方式仅仅是为了解释本发明,并不是为了限定本发明。
请参阅图1,本发明提供一种基于YUV色彩空间的图像快速拼接方法,包括如下步骤:
S1:控制行车的运动机构对待拼接场景进行全局扫描,采集同一时刻相机位置t、RGB图像数据、深度图像数据,通过相机外参和相机内参可以将深度图数据映射到RGB图像中,得到每一个像素的深度值z。
S2:利用像素映射方程将所有图片的像素转换到初始视角的图片像素;
如图3所示,利用三角测量原理得到同一个点在两个不同像素位置的关系为:
Figure BDA0003661640770000051
其中,P1是这个点在位置1处相机图像中的像素的齐次坐标,维度为3x1,z1是该点在位置1处相机图像中的深度;
P2是这个点在位置2处相机图像中的像素的齐次坐标,维度为3x1,z2是该点在位置2处相机图像中的深度;
K是相机内参;R是相机的旋转向量,t是相机的位置平移向量。
由于行车的运动机构是在平面内运动,相机的旋转向量R是一个单位矩阵,相机深度z1=z2,像素映射方程可以变为:
Figure BDA0003661640770000061
为了提高像素映射的速度,将像素映射方程变为:
P1(3,n)=P2(3,n)-Kt(3,n)*diag(z(n,1))-1
通过上述P1(3,n)=P2(3,n)-Kt(3,n)*diag(z(n,1))-1的像素映射方程对一张图片进行并行映射,其中P1(3,n)是映射后的像素坐标的齐次坐标,维度为3xn,每一列均是一个映射后的像素坐标;P2(3,n)是映射前的像素坐标的齐次坐标,维度为3xn,每一列均是一个映射前的像素坐标;z(n,1)是像素坐标对应的深度向量,维度为nx1,每一行均是映射前像素的深度值;
diag(z(n,1))是对深度向量对角化,就是将n维向量映射到nxn方阵的对角线上,其余元素为0;diag(z(n,1))-1就是给对角化后的矩阵取逆(亦即,对其对角元素取倒数);t(3,n)是相机位置平移向量,维度为3xn,每一行均分别对应在三个坐标轴上相机的平动位移。
对于同一张图片来说,n行的值相同,将映射方程变成矩阵形式之后就可以使用GPU对图像像素变换并行映射,提高映射速度。
如果需要对m张图片进行并行映射,则可以使用像素映射方程:
P1(3,n*m)=P2(3,n*m)-Kt(3,n*m)*diag(z(n*m,1))-1
通过像素映射方程得到的是初始视角的图片像素和其他相机视角位置图片像素的一个映射关系,通过这个映射关系将其他相机视角位置图像的RGB图像变换到初始视角下的相机图像。
RGB_origin[P1(3,n)(0∶1,:)]=RGB[P2(3,n)(0:1,:)]
其中P1(3,n)(0:1,:)代表取P1(3,n)齐次坐标中的前两行元素,RGB_origin代表在初始视角下的相机图像,RGB代表相机运动过程中采集到的相机图像。
S3:对所有变换后的RGB值进行融合得到拼接的全景图像。
S4:经过S2后转换到的初始视角的图片像素的图像作为待拼接图像,
将S3中得到的全景图像和待拼接图像分别转成灰度图,并进行二值化,通过按位与操作得到重叠区域的图像;
将初始视角的全景图片重叠区域和待拼接图像重叠区域的RGB值分别转到YUV色彩空间,计算初始视角的全景图片和待拼接图像重叠区域Y分量比值的亮度系数k,亮度系数:
Figure BDA0003661640770000071
其中YUVB1(0,:)代表B1中所有像素的Y分量,YUVB2(0,:)代表B2中所有像素的Y分量,avg()表示对亮度系数取平均值;
将待拼接图像转到YUV色彩空间,并对所有像素的Y分量都乘以这个k系数,YUVC(0,:)=k*YUVC(0,:);
最后将待拼接图像从YUV色彩空间转回RGB空间,将待拼接图像直接拷贝到全景图片对应的像素上,得到全景拼接融合结果。
如图2所示,图中的小车可以在XY平面内运动,RGB相机和深度相机都是安装于小车上;RGB相机和深度相机都是垂直于运动平面向下安装。初始小车位置位于原点O处,此时相机视角位于c1位置(如图3所示),经过在在X方向上运动一个位置xi和Y方向上运动一个位置yi后到达c2位置(如图3所示),小车运动的位移可以通过位于小车上的编码器获得。那么,相机的位移向量
Figure BDA0003661640770000081
其中Z方向的平移为0。
为了表达像素映射的过程,此处假设c2位置的图片由两个像素组合,那么
Figure BDA0003661640770000082
这两个像素的深度向量可以通过深度相机获得,假设深度向量
Figure BDA0003661640770000083
那么
Figure BDA0003661640770000084
此时相机内参经过棋盘格标定可以得到
Figure BDA0003661640770000085
假设xi=0.5,yi=0.5,那么
Figure BDA0003661640770000086
那么,利用像素映射公式就可以把c2视角下的图像变换到c1视角下
Figure BDA0003661640770000087
;上面计算结果说明c2视角下像素位置(1,1)和c1视角下(364.5,364.75)存在映射关系,c2视角下像素位置(2,1)和c1视角下(365.5,364.75)存在映射关系,将c2视角下的图片像素值按照这个像素映射表进行变换,得到c1视角下图片,接下来就进入图片融合环节。
如图4所示,假设初始视角的全景图片为A,待拼接图像为C0,经过上述的图像视角变换后,图像C0变换成了图像C;
将A图像和C图像分别转成灰度图,并进行二值化,得到
Figure BDA0003661640770000088
Figure BDA0003661640770000089
通过图像
Figure BDA00036616407700000810
Figure BDA00036616407700000811
进行按位与操作得到重叠区域的二值化图
Figure BDA00036616407700000812
对A图像和C图像分别使用
Figure BDA00036616407700000813
作为掩膜进行抠图,可以得到A图像的重叠区域为B1,C图像的重叠区域为B2。
将初始视角全景图片重叠区域B1和待拼接图像重叠区域B2的RGB值分别转到YUV空间。计算初始视角全景图片和待拼接图像重叠区域Y分量比值的亮度系数k,亮度系数:
Figure BDA0003661640770000091
例如当YUVB1(0,:)=[1.1 1.3],YUVB2(0,:)=[1.0 1.0]时,此处计算得到系数为k=1.2。
将待拼接图像C转到YUV空间,并对所有像素的Y分量都乘以这个k系数,YUVC(0,:)=k*YUVC(0,:);
例如当
Figure BDA0003661640770000092
时,经过亮度调整后的C图像
Figure BDA0003661640770000093
最后将待拼接图像C从YUV空间转回RGB空间,并将图像C直接拷贝到图像A对应的像素上,得到融合拼接的全景图像。
本发明并不仅仅限于说明书和实施方式中所描述,因此对于熟悉领域的人员而言可容易地实现另外的优点和修改,故在不背离权利要求及等同范围所限定的一般概念的精神和范围的情况下,本发明并不限于特定的细节、代表性的设备和这里示出与描述的示例。

Claims (3)

1.一种基于YUV色彩空间的图像快速拼接方法,其特征在于,包括如下步骤:
S1:控制行车的运动机构对待拼接场景进行全局扫描,采集同一时刻相机位置t、RGB图像数据、深度图像数据,通过相机外参和相机内参将深度图数据映射到RGB图像中,得到每一个像素的深度值z;
S2:利用像素映射方程将所有图片的像素转换到初始视角的图片像素;
S3:对所有变换后的RGB值进行融合得到拼接的全景图像。
2.如权利要求1所述的基于YUV色彩空间的图像快速拼接方法,其特征在于,步骤S2还还包括步骤S21:利用三角测量原理得到同一个点在两个不同像素位置的关系为:
Figure FDA0003661640760000011
其中,P1是这个点在位置1处相机图像中的像素的齐次坐标,维度为3x1,z1是该点在位置1处相机图像中的深度;
P2是这个点在位置2处相机图像中的像素的齐次坐标,维度为3x1,z2是该点在位置2处相机图像中的深度;
K是相机内参;R是相机的旋转向量,t是相机的位置平移向量,
相机的旋转向量R是一个单位矩阵,相机深度z1=z2,像素映射方程可以变为:
Figure FDA0003661640760000012
将像素映射方程变为:
P1(3,n)=P2(3,n)-Kt(3,n)*diag(z(n,1))-1
通过上述P1(3,n)=P2(3,n)-Kt(3,n)*diag(z(n,1))-1的像素映射方程对一张图片进行并行映射,其中P1(3,n)是映射后的像素坐标的齐次坐标,维度为3xn,每一列均是一个映射后的像素坐标;P2(3,n)是映射前的像素坐标的齐次坐标,维度为3xn,每一列均是一个映射前的像素坐标;z(n,1)是像素坐标对应的深度向量,维度为nx1,每一行均是映射前像素的深度值;
diag(z(n,1))是对深度向量对角化,就是将n维向量映射到nxn方阵的对角线上,其余元素为0;diag(z(n,1))-1就是给对角化后的矩阵取逆;t(3,n)是相机位置平移向量,维度为3xn,每一行均分别对应在三个坐标轴上相机的平动位移;
对于同一张图片来说,n行的值相同,将映射方程变成矩阵形式之后使用GPU对图像像素变换并行映射,
如果需要对m张图片进行并行映射,则使用像素映射方程:
P1(3,n*m)=P2(3,n*m)-Kt(3,n*m)*diag(z(n*m,1)-1
通过像素映射方程得到的是初始视角的图片像素和其他相机视角位置图片像素的一个映射关系,通过这个映射关系将其他相机视角位置图像的RGB图像变换到初始视角下的相机图像,
RGB_origin[P1(3,n)(0:1,:)]=RGB[P2(3,n)(0:1,:)];
其中P1(3,n)(0:1,:)代表取P1(3,n)齐次坐标中的前两行元素,RGB_origin代表在初始视角下的相机图像,RGB代表相机运动过程中采集到的相机图像。
3.如权利要求1所述的基于YUV色彩空间的图像快速拼接方法,其特征在于,步骤S3还包括步骤S31:将经过转换到的初始视角的图片像素的图像作为待拼接图像,将得到的全景图像和待拼接图像分别转成灰度图,并进行二值化,通过按位与操作得到重叠区域的图像;
将初始视角的全景图片重叠区域和待拼接图像重叠区域的RGB值分别转到YUV色彩空间,计算初始视角的全景图片和待拼接图像重叠区域Y分量比值的亮度系数k,亮度系数:
Figure FDA0003661640760000031
其中,YUVB1(0,:)代表B1中所有像素的Y分量,YUVB2(0,:)代表B2中所有像素的Y分量,avg()表示对亮度系数取平均值;
将待拼接图像转到YUV色彩空间,并对所有像素的Y分量都乘以这个k系数,YUVc(0,:)=k*YUVc(0,:);
将待拼接图像从YUV色彩空间转回RGB空间,将待拼接图像直接拷贝到全景图片对应的像素上,得到融合拼接的全景图像。
CN202210579134.8A 2022-05-25 2022-05-25 一种基于yuv色彩空间的图像快速拼接方法 Pending CN114972025A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210579134.8A CN114972025A (zh) 2022-05-25 2022-05-25 一种基于yuv色彩空间的图像快速拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210579134.8A CN114972025A (zh) 2022-05-25 2022-05-25 一种基于yuv色彩空间的图像快速拼接方法

Publications (1)

Publication Number Publication Date
CN114972025A true CN114972025A (zh) 2022-08-30

Family

ID=82955041

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210579134.8A Pending CN114972025A (zh) 2022-05-25 2022-05-25 一种基于yuv色彩空间的图像快速拼接方法

Country Status (1)

Country Link
CN (1) CN114972025A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116503291A (zh) * 2023-06-21 2023-07-28 广东广宇科技发展有限公司 一种基于色彩增强的图像处理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116503291A (zh) * 2023-06-21 2023-07-28 广东广宇科技发展有限公司 一种基于色彩增强的图像处理方法
CN116503291B (zh) * 2023-06-21 2023-10-27 广东广宇科技发展有限公司 一种基于色彩增强的图像处理方法

Similar Documents

Publication Publication Date Title
CN110782394A (zh) 全景视频快速拼接方法及系统
CN111062873B (zh) 一种基于多对双目相机的视差图像拼接与可视化方法
CN107471218B (zh) 一种基于多目视觉的双臂机器人手眼协调方法
US8077906B2 (en) Apparatus for extracting camera motion, system and method for supporting augmented reality in ocean scene using the same
JP2021533507A (ja) 画像繋ぎ合わせ方法及び装置、車載画像処理装置、電子機器、記憶媒体
CN111028155B (zh) 一种基于多对双目相机的视差图像拼接方法
US20080253685A1 (en) Image and video stitching and viewing method and system
US20070008499A1 (en) Image combining system, image combining method, and program
CN103971375A (zh) 一种基于图像拼接的全景凝视相机空间标定方法
CN104881869A (zh) 一种移动平台上的实时全景跟踪与拼接方法
CN107018335A (zh) 图像拼接方法、装置及终端
CN110838086A (zh) 一种基于相关性模板匹配的室外图像拼接方法
KR100614004B1 (ko) 자동화된 360°파노라마 이미지 생성 방법
CN105100546A (zh) 运动估计方法及装置
US20220358679A1 (en) Parameter Calibration Method and Apparatus
CN115115522A (zh) 一种货架商品图像拼接方法及系统
CN114339185A (zh) 用于车辆相机图像的图像彩色化
CN114972025A (zh) 一种基于yuv色彩空间的图像快速拼接方法
WO2020257999A1 (zh) 图像处理方法、装置、云台和存储介质
CN110278366B (zh) 一种全景图像虚化方法、终端及计算机可读存储介质
JP5321417B2 (ja) 透視変換パラメータ生成装置、画像補正装置、透視変換パラメータ生成方法、画像補正方法、及びプログラム
CN107330856B (zh) 一种基于投影变换和薄板样条的全景成像方法
JP2009301181A (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
CN109272445B (zh) 基于球面模型的全景视频拼接方法
CN116245734A (zh) 全景图像生成方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination