CN110838163B - 贴图处理方法及装置 - Google Patents

贴图处理方法及装置 Download PDF

Info

Publication number
CN110838163B
CN110838163B CN201810930706.6A CN201810930706A CN110838163B CN 110838163 B CN110838163 B CN 110838163B CN 201810930706 A CN201810930706 A CN 201810930706A CN 110838163 B CN110838163 B CN 110838163B
Authority
CN
China
Prior art keywords
picture
mapping
distortion
dimensional scene
acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810930706.6A
Other languages
English (en)
Other versions
CN110838163A (zh
Inventor
丁一鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Uniview Technologies Co Ltd
Original Assignee
Zhejiang Uniview Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Uniview Technologies Co Ltd filed Critical Zhejiang Uniview Technologies Co Ltd
Priority to CN201810930706.6A priority Critical patent/CN110838163B/zh
Publication of CN110838163A publication Critical patent/CN110838163A/zh
Application granted granted Critical
Publication of CN110838163B publication Critical patent/CN110838163B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例提供一种贴图处理方法及装置,涉及图像处理技术领域,用于处理三维场景模型中的贴图画面。该方法及装置通过观察三维场景模型中贴图画面的观察位置,以及采集到所述贴图画面的采集位置,计算得到所述贴图画面的畸变参数,并根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面,解决了三维场景模型中贴图画面随观察视角改变发生畸变导致操作人员无法清楚了解实况画面内容的问题。

Description

贴图处理方法及装置
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种贴图处理方法及装置。
背景技术
随着监控技术和三维仿真技术的发展,技术人员意识到将这两种技术结合,可以使得视频的真实性、实时性与三维模型的直观性、GIS(GeographicInformation System,地理信息系统)属性相互补充。
但是,在三维场景中播放实况画面存在诸多问题,其中最为严重的问题就是当操作人员在三维场景中漫游时,随着观察视角的改变操作人员观察到的实况画面会产生畸变,从而导致操作人员无法清楚的了解实况画面中的内容。
发明内容
为了克服现有技术中的上述不足,本发明的目的在于提供一种贴图处理方法及装置,以解决三维场景模型中贴图画面随观察视角改变发生畸变,导致操作人员无法清楚了解实况画面内容的问题。
为了实现上述目的,本发明较佳实施例采用的技术方案如下:
第一方面,本发明实施例提供一种贴图处理方法,用于处理三维场景模型中的贴图画面,所述方法包括:
获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置;
根据所述观察位置与所述采集位置之间的相对位置关系计算所述贴图画面的畸变参数;
根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面。
可选地,本发明实施例中,在所述获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置之前,所述方法还包括:
根据采集到贴图画面的采集参数将贴图画面映射到三维场景模型中的对应区域。
可选地,在本发明实施例中,所述根据采集到贴图画面的采集参数将贴图画面映射到三维场景模型中的对应区域,包括:
获取采集到所述贴图画面的采集参数;
根据基于所述采集参数的透视变换矩阵确定所述贴图画面映射到三维场景模型中的贴图区域;
通过所述透视变换矩阵的逆变换对所述贴图画面进行处理,得到与所述贴图区域的形状匹配的贴图画面;
将与所述贴图区域的形状匹配的贴图画面映射到所述贴图区域。
可选地,在本发明实施例中,所述获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置,包括:
建立三维场景模型坐标系;
根据三维场景模型的当前显示视角在所述三维场景模型坐标系中确定观察点的坐标;
根据采集到所述贴图画面的采集参数在所述三维场景模型坐标系中确定采集点的坐标。
可选地,在本发明实施例中,所述根据所述观察位置与所述采集位置之间的相对位置关系计算所述贴图画面的畸变参数,包括:
在所述贴图画面上确定中心点及一参考点,其中,所述中心点与参考点构成的向量与所述中心点与采集点构成的向量垂直;
将所述中心点与观察点构成的向量在贴图画面上的投影方向作为所述贴图画面的畸变方向。
进一步地,所述根据所述观察位置与所述采集位置之间的相对位置关系计算所述贴图画面的畸变参数,还包括:
根据所述中心点、参考点与采集点构成的第一平面与所述中心点、参考点与观察点构成的第二平面之间的夹角计算所述贴图画面的畸变比例。
可选地,在本发明实施例中,所述根据所述中心点、参考点与采集点构成的第一平面与所述中心点、参考点与观察点构成的第二平面之间的夹角计算所述贴图画面的畸变比例,包括:
在所述夹角小于预设角度时,将所述夹角对应的正弦值作为所述贴图画面的畸变比例;
在所述夹角大于或等于所述预设角度时,将所述贴图画面的畸变比例设置为预设值。
可选地,在本发明实施例中,所述根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面,包括:根据所述畸变比例对所述贴图画面进行拉伸处理。
第二方面,本发明实施例还提供一种贴图处理装置,用于处理三维场景模型中的贴图画面,所述装置包括:
获取模块,用于获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置;
计算模块,用于根据所述观察位置与所述采集位置之间的相对位置关系计算所述贴图画面的畸变参数;
处理模块,用于根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面。
进一步地,在本发明实施例中,所述获取模块还用于获取采集到所述贴图画面的采集参数;所述装置还包括:
映射模块,用于根据基于所述采集参数的透视变换矩阵确定所述贴图画面映射到三维场景模型中的贴图区域;以及,
通过所述透视变换矩阵的逆变换对所述贴图画面进行处理,得到与所述贴图区域的形状匹配的贴图画面并将与所述贴图区域的形状匹配的贴图画面映射到所述贴图区域。
相对于现有技术而言,本发明实施例提供的贴图处理方法及装置具有以下有益效果:
本发明实施例提供的贴图处理方法及装置,通过观察三维场景模型中贴图画面的观察位置,及采集到所述贴图画面的采集位置,计算得到所述贴图画面的畸变参数,并根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面,解决了三维场景模型中贴图画面随观察视角改变发生畸变导致操作人员无法清楚了解实况画面内容的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的部分实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它相关的附图。
图1为本发明实施例提供的图像处理设备的结构示意图;
图2为本发明实施例提供的贴图处理方法的步骤流程示意图;
图3为图2中步骤S10的子步骤流程示意图;
图4为本发明实施例提供的贴图处理方法中各坐标点的位置关系示意图;
图5为本发明另一种实施例提供的贴图处理方法的步骤流程示意图;
图6为图5中步骤S01的子步骤流程示意图;
图7-图9为本发明实施例提供的贴图处理方法中贴图画面的映射过程示意图;
图10为本发明实施例提供的贴图处理装置的模块示意图。
图标:100-图像处理设备;111-存储器;112-存储控制器;113-处理器;70-贴图处理装置;701-获取模块;702-映射模块;703-计算模块;704-处理模块。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明实施例的描述中,需要说明的是,术语“第一”、“第二”等命名方式仅是为了区分不同特征,便于描述本发明和简化描述,而不是指示或暗示其相对重要性,因此不能理解为对本发明的限制。
下面结合附图,对本发明的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参阅图1,为本发明实施例提供的一种图像处理设备100。所述图像处理设备100可以包括贴图处理装置70、存储器111、存储控制器112及处理器113。
所述存储器111、存储控制器112及处理器113各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述贴图处理装置70可以包括至少一个可以软件或固件(firmware)的形式存储于所述存储器111中或固化在所述图像处理设备100的操作系统(operatingsystem,OS)中的软件功能模块。所述处理器113用于执行所述存储器111中存储的可执行模块,例如所述贴图处理装置70所包括的软件功能模块及计算机程序等。
其中,所述存储器111可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序。所述处理器113以及其他可能的组件对存储器111的访问可在所述存储控制器112的控制下进行。
所述处理器113可能是一种集成电路芯片,具有信号的处理能力;也可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。
应当理解的是,图1所示的结构仅为示意图,所述图像处理设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。图1中所示的各组件可以采用硬件、软件或其组合实现。
进一步地,请参照图2,本发明实施例提供一种贴图处理方法,所述方法应用于图1中的图像处理设备100。所述方法包括:
步骤S10,获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置。
在本发明实施例中,所述图像处理设备100配置有三维场景模型,所述三维场景模型可以根据所需监控的真实场景进行创建。具体地,所述三维场景模型的创建可以通过3Dmax或revit等软件实现。
当三维场景模型创建完成后,将摄像机等图像采集设备采集的监控画面以贴图的形式映射到三维场景模型中的对应位置,可实现在三维场景中的各个视角查看图像采集设备采集的监控画面。
但是,当观察所述三维场景模型的视角改变时,操作人员所看到的贴图画面会随观察视角产生畸变,导致操作人员无法清楚地了解监控画面中的内容。
为了解决该问题,本发明实施例通过确定图像采集设备相对于贴图画面的采集位置,以及观察者相对于贴图画面的观察位置,然后以逆向畸变的方式对三维场景模型中的贴图画面进行处理,从而减小贴图画面的畸变程度,恢复贴图画面的初始形状。
可选地,请参照图3,在本发明实施例中,所述步骤S10可以包括以下子步骤:
子步骤S101,建立三维场景模型坐标系。在本发明实施例中,所述三维场景坐标系为空间坐标系,且该坐标系的原点可以不限。
子步骤S102,根据三维场景模型的当前显示视角在所述三维场景模型坐标系中确定观察点的坐标。
在子步骤S102中,可以根据三维场景模型的当前显示视角确定观察位置在所述三维场景模型坐标系中的对应坐标,其中,每一个显示视角对应一个预设的观察点坐标。例如,当所述三维场景模型当前显示视角处于俯视状态时,则将预设的位于当前显示部分中心点上方的观察点作为当前观察点。
子步骤S103,根据采集到所述贴图画面的采集参数在所述三维场景模型坐标系中确定采集点的坐标。
在子步骤S103中,所述采集参数可以包括摄像机等图像采集设备相对于真实场景的位置参数,如:高度、朝向等。通过图像采集设备相对于真实场景的位置参数可以在所述三维场景模型中确定与该图像采集设备对应的虚拟采集点的坐标。
进一步地,请继续参照图2,在步骤S10之后,所述方法还包括:
步骤S20,根据所述观察位置与所述采集位置之间的相对位置关系计算所述贴图画面的畸变参数。
在本发明实施例中,所述畸变参数可以包括贴图画面的畸变方向和畸变比例。其中,所述畸变方向为观察视角下看到的贴图画面相对于采集视角下看到的贴图画面的变形方向,所述畸变比例表示观察视角下看到的贴图画面相对于采集视角下看到的贴图画面的变形程度。
具体地,请参照图4,在本发明实施例中,所述畸变参数的确定过程包括:在所述贴图画面上确定中心点P4及一参考点P5,其中,所述中心点P4与参考点P5构成的向量与所述中心点P4与采集点P1构成的向量垂直。
在确定所述中心点P4之后,将所述中心点P4与观察点P2构成的向量在贴图画面上的投影向量N5的方向作为所述贴图画面的畸变方向。
同时,根据所述中心点P4、参考点P5与采集点P1构成的第一平面与所述中心点P4、参考点P5与观察点P2构成的第二平面之间的夹角α计算所述贴图画面的畸变比例。
具体地,当所述夹角小于预设角度时,将所述夹角对应的正弦值作为所述贴图画面的畸变比例;当所述夹角大于或等于所述预设角度时,将所述贴图画面的畸变比例设置为预设值。
可选地,在本发明的较佳实施例中,所述预设角度可以设置为70°,所述预设值可以设置为cos20°。此处应当理解的是,所述预设角度和预设值可以是,但不限于上述的数值。
进一步地,在通过上述步骤S20得到所述贴图画面的畸变参数之后,所述方法还包括:
步骤S30,根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面。
在本发明实施例中,所述步骤S30可以包括:根据所述畸变比例在所述畸变方向上对所述贴图画面进行逆向拉伸处理。即在所述贴图画面的畸变方向的反方向上根据所述畸变比例对贴图画面进行拉伸或挤压,将贴图画面按所述畸变比例大致矫正为映射到三维场景模型时的初始形状,从而降低贴图画面由于观察视角改变产生的畸变效果,使操作人员可以在三维场景模型中更清楚地观察到摄像机采集到的当前实况贴图画面。
可选地,请参照图5,本发明实施例中,在所述步骤S10之前所述方法还可以包括:
步骤S01,根据采集到贴图画面的采集参数将贴图画面映射到三维场景模型中的对应区域。
通过步骤S01可以将图像采集设备采集的图像画面以贴图的形式映射到三维场景模型中的对应位置,从而将三维场景模型与监控实况画面结合,然后根据后续的步骤S10、步骤S20和步骤S30对映射到三维场景模型中的贴图画面进行矫正。具体地,请参照图6,在本发明实施例中所述步骤S01可以包括以下子步骤:
子步骤S011,获取采集到所述贴图画面的采集参数。
其中,所述采集参数包括图像采集设备的光学参数以及图像采集设备相对于真实场景的位置信息。具体地,所述图像采集设备的光学参数包括CCD(charge coupleddevice,电荷藕合器件)的尺寸、焦距及可视角,所述位置信息包括图像采集设备相对于真实场景的高度及朝向。
子步骤S012,根据基于所述采集参数的透视变换矩阵确定所述贴图画面映射到三维场景模型中的贴图区域。
参照图7,在通过所述子步骤S011获得采集到所述贴图画面的采集参数之后,可以根据该采集参数中的光学参数得到图像采集设备的透视变换矩阵。所述透视变换矩阵可以表示为:
其中,n为CCD的纵横比,β为图像采集设备的可视角(即视椎体中斜边相对于中轴线的夹角),X1为近裁剪面距离,X2为远裁剪面距离。
进一步地,在根据所述采集参数中的光学参数确定图像采集设备的透视变换矩阵之后,还可以根据该采集参数中的位置参数确定图像采集设备在三维场景模型中对应的虚拟位置,然后根据所述透视变换矩阵和所述图像采集设备在三维场景模型中对应的虚拟位置将所述图像采集设备的可视域与三维场景模型的相交部分作为贴图画面映射到三维场景模型的贴图区域。
应当注意的是,在本发明实施例中,所述图像采集设备的数量可以是一个,也可以是多个。当存在多个图像采集设备时,可以从多个视角对监控环境进行画面采集,并将各个视角采集到的贴图画面映射到三维场景模型的对应区域。
继续参照图6,进一步地,在确定贴图画面映射到三维场景模型中的贴图区域后,还包括:
子步骤S013,通过所述透视变换矩阵的逆变换对所述贴图画面进行处理,得到与所述贴图区域的形状匹配的贴图画面。
子步骤S014,将与所述贴图区域的形状匹配的贴图画面映射到所述贴图区域。
具体地,请参照图8-图9,通过子步骤S013对图像采集设备采集到的图像进行处理后,可以将其图像采集设备采集到的实况画面变形为与子步骤S012确定的贴图区域匹配的形状。随后通过所述子步骤S014将变形后的实况画面以贴图形式映射到三维场景模型中的贴图区域,即可实现监控画面与三维场景模型的结合。
此外,请参照图10,本发明实施例还提供一种贴图处理装置70,所述装置包括:
获取模块701,用于获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置;
计算模块703,用于根据所述观察位置与所述采集位置之间的相对位置关系计算所述贴图画面的畸变参数;
处理模块704,用于根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面。
进一步地,在本发明实施例中,所述获取模块701还用于获取采集到所述贴图画面的采集参数;且所述装置还包括:
映射模块702,用于根据基于所述采集参数的透视变换矩阵确定所述贴图画面映射到三维场景模型中的贴图区域;以及,
通过所述透视变换矩阵的逆变换对所述贴图画面进行处理,得到与所述贴图区域的形状匹配的贴图画面并将与所述贴图区域的形状匹配的贴图画面映射到所述贴图区域。
应当注意的是,在本发明实施例中所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
综上所述,本发明实施例提供一种贴图处理方法及装置,所述方法及装置通过观察三维场景模型中贴图画面的观察位置,及采集到所述贴图画面的采集位置,计算得到所述贴图画面的畸变参数,并根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面,解决了三维场景模型中贴图画面随观察视角改变发生畸变导致操作人员无法清楚了解实况画面内容的问题。
以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (8)

1.一种贴图处理方法,其特征在于,用于处理三维场景模型中的贴图画面,所述方法包括:
获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置;
根据所述观察位置与所述采集位置之间的相对位置关系计算所述贴图画面的畸变参数;
根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面;
所述畸变参数包括畸变方向和畸变比例,所述根据所述观察位置与所述采集位置之间的相对位置关系计算所述贴图画面的畸变参数,包括:
在所述贴图画面上确定中心点及一参考点,其中,所述中心点与参考点构成的向量与所述中心点与采集点构成的向量垂直;
将所述中心点与观察点构成的向量在贴图画面上的投影方向作为所述贴图画面的畸变方向;
根据所述中心点、参考点与采集点构成的第一平面与所述中心点、参考点与观察点构成的第二平面之间的夹角计算所述贴图画面的畸变比例。
2.如权利要求1所述的方法,其特征在于,在所述获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置之前,所述方法还包括:
根据采集到贴图画面的采集参数将贴图画面映射到三维场景模型中的对应区域。
3.如权利要求2所述的方法,其特征在于,所述根据采集到贴图画面的采集参数将贴图画面映射到三维场景模型中的对应区域,包括:
获取采集到所述贴图画面的采集参数;
根据基于所述采集参数的透视变换矩阵确定所述贴图画面映射到三维场景模型中的贴图区域;
通过所述透视变换矩阵的逆变换对所述贴图画面进行处理,得到与所述贴图区域的形状匹配的贴图画面;
将与所述贴图区域的形状匹配的贴图画面映射到所述贴图区域。
4.如权利要求1所述的方法,其特征在于,所述获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置,包括:
建立三维场景模型坐标系;
根据三维场景模型的当前显示视角在所述三维场景模型坐标系中确定观察点的坐标;
根据采集到所述贴图画面的采集参数在所述三维场景模型坐标系中确定采集点的坐标。
5.如权利要求1所述的方法,其特征在于,所述根据所述中心点、参考点与采集点构成的第一平面与所述中心点、参考点与观察点构成的第二平面之间的夹角计算所述贴图画面的畸变比例,包括:
在所述夹角小于预设角度时,将所述夹角对应的正弦值作为所述贴图画面的畸变比例;
在所述夹角大于或等于所述预设角度时,将所述贴图画面的畸变比例设置为预设值。
6.如权利要求1或5所述的方法,其特征在于,所述根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面,包括:根据所述畸变比例对所述贴图画面进行拉伸处理。
7.一种贴图处理装置,其特征在于,用于处理三维场景模型中的贴图画面,所述装置包括:
获取模块,用于获取采集到所述贴图画面的采集位置以及观察所述三维场景模型中的贴图画面的观察位置;
计算模块,用于根据所述观察位置与所述采集位置之间的相对位置关系计算所述贴图画面的畸变参数;
处理模块,用于根据所述畸变参数对所述贴图画面进行畸变处理,得到在所述观察位置观察所述三维场景模型的贴图画面;
所述畸变参数包括畸变方向和畸变比例,所述计算模块还用于:在所述贴图画面上确定中心点及一参考点,其中,所述中心点与参考点构成的向量与所述中心点与采集点构成的向量垂直;将所述中心点与观察点构成的向量在贴图画面上的投影方向作为所述贴图画面的畸变方向;根据所述中心点、参考点与采集点构成的第一平面与所述中心点、参考点与观察点构成的第二平面之间的夹角计算所述贴图画面的畸变比例。
8.如权利要求7所述的装置,其特征在于,所述获取模块还用于获取采集到所述贴图画面的采集参数;所述装置还包括:
映射模块,用于根据基于所述采集参数的透视变换矩阵确定所述贴图画面映射到三维场景模型中的贴图区域;以及,
通过所述透视变换矩阵的逆变换对所述贴图画面进行处理,得到与所述贴图区域的形状匹配的贴图画面并将与所述贴图区域的形状匹配的贴图画面映射到所述贴图区域。
CN201810930706.6A 2018-08-15 2018-08-15 贴图处理方法及装置 Active CN110838163B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810930706.6A CN110838163B (zh) 2018-08-15 2018-08-15 贴图处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810930706.6A CN110838163B (zh) 2018-08-15 2018-08-15 贴图处理方法及装置

Publications (2)

Publication Number Publication Date
CN110838163A CN110838163A (zh) 2020-02-25
CN110838163B true CN110838163B (zh) 2024-02-02

Family

ID=69573040

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810930706.6A Active CN110838163B (zh) 2018-08-15 2018-08-15 贴图处理方法及装置

Country Status (1)

Country Link
CN (1) CN110838163B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176273A (ja) * 2007-12-26 2009-08-06 Dainippon Printing Co Ltd 画像変換装置および画像変換方法
JP2009265826A (ja) * 2008-04-23 2009-11-12 Panasonic Electric Works Co Ltd 映像補正方法、プログラム及び立体視映像生成システム
CN103617606A (zh) * 2013-11-26 2014-03-05 中科院微电子研究所昆山分所 用于辅助驾驶的车辆多视角全景生成方法
CN106056656A (zh) * 2016-03-21 2016-10-26 陈宇鹏 一种三维显示数据获取方法
WO2017016511A1 (zh) * 2015-07-29 2017-02-02 努比亚技术有限公司 一种图像处理方法及装置、终端
CN106527857A (zh) * 2016-10-10 2017-03-22 成都斯斐德科技有限公司 一种基于虚拟现实的全景视频交互方法
CN106570938A (zh) * 2016-10-21 2017-04-19 哈尔滨工业大学深圳研究生院 基于opengl 的全景监控方法及系统
CN106846410A (zh) * 2016-12-20 2017-06-13 北京鑫洋泉电子科技有限公司 基于三维的行车环境成像方法及装置
CN106934772A (zh) * 2017-03-02 2017-07-07 深圳岚锋创视网络科技有限公司 一种全景图像或视频的水平校准方法、系统及便携式终端
CN106993126A (zh) * 2016-05-11 2017-07-28 深圳市圆周率软件科技有限责任公司 一种将镜头图像展开为全景图像的方法及装置
WO2017128887A1 (zh) * 2016-01-26 2017-08-03 范治江 全景图像的校正3d显示方法和系统及装置
CN108259858A (zh) * 2018-04-10 2018-07-06 四川华雁信息产业股份有限公司 变电站场景与设备的监控方法及装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176273A (ja) * 2007-12-26 2009-08-06 Dainippon Printing Co Ltd 画像変換装置および画像変換方法
JP2009265826A (ja) * 2008-04-23 2009-11-12 Panasonic Electric Works Co Ltd 映像補正方法、プログラム及び立体視映像生成システム
CN103617606A (zh) * 2013-11-26 2014-03-05 中科院微电子研究所昆山分所 用于辅助驾驶的车辆多视角全景生成方法
WO2017016511A1 (zh) * 2015-07-29 2017-02-02 努比亚技术有限公司 一种图像处理方法及装置、终端
WO2017128887A1 (zh) * 2016-01-26 2017-08-03 范治江 全景图像的校正3d显示方法和系统及装置
CN106056656A (zh) * 2016-03-21 2016-10-26 陈宇鹏 一种三维显示数据获取方法
CN106993126A (zh) * 2016-05-11 2017-07-28 深圳市圆周率软件科技有限责任公司 一种将镜头图像展开为全景图像的方法及装置
CN106527857A (zh) * 2016-10-10 2017-03-22 成都斯斐德科技有限公司 一种基于虚拟现实的全景视频交互方法
CN106570938A (zh) * 2016-10-21 2017-04-19 哈尔滨工业大学深圳研究生院 基于opengl 的全景监控方法及系统
CN106846410A (zh) * 2016-12-20 2017-06-13 北京鑫洋泉电子科技有限公司 基于三维的行车环境成像方法及装置
CN106934772A (zh) * 2017-03-02 2017-07-07 深圳岚锋创视网络科技有限公司 一种全景图像或视频的水平校准方法、系统及便携式终端
CN108259858A (zh) * 2018-04-10 2018-07-06 四川华雁信息产业股份有限公司 变电站场景与设备的监控方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于视频模型的虚拟现实视频融合系统;周颐;孟明;吴威;周忠;;系统仿真学报(第07期);2550-2557 *

Also Published As

Publication number Publication date
CN110838163A (zh) 2020-02-25

Similar Documents

Publication Publication Date Title
US11012620B2 (en) Panoramic image generation method and device
CN107223269B (zh) 三维场景定位方法和装置
CN111750820B (zh) 影像定位方法及其系统
EP3425587A1 (en) Method and device for generating a panoramic image
CN110335317B (zh) 基于终端设备定位的图像处理方法、装置、设备和介质
CN108717704B (zh) 基于鱼眼图像的目标跟踪方法、计算机装置及计算机可读存储介质
CN111325798B (zh) 相机模型纠正方法、装置、ar实现设备及可读存储介质
CN112712487B (zh) 一种场景视频融合方法、系统、电子设备及存储介质
CN106570907B (zh) 一种相机标定方法及装置
CN110675350B (zh) 云台相机视场坐标映射方法、装置、存储介质及云台相机
CN110807814A (zh) 摄影机位姿计算方法、装置、设备及存储介质
CN113079369B (zh) 摄像设备的确定方法及装置、存储介质、电子装置
CN109902675B (zh) 物体的位姿获取方法、场景重构的方法和装置
CN116109684B (zh) 面向变电场站在线视频监测二三维数据映射方法及装置
CN114616586A (zh) 图像标注方法、装置、电子设备及计算机可读存储介质
CN115294207A (zh) 智慧校园监控视频与三维gis模型的融合调度系统及方法
CN106780613B (zh) 多摄像头标定结果的可视化方法及其系统
CN112365530B (zh) 增强现实处理方法及装置、存储介质和电子设备
CN113793392A (zh) 一种相机参数标定方法及装置
US11176636B2 (en) Method of plane tracking
CN110838163B (zh) 贴图处理方法及装置
CN112668505A (zh) 基于路侧相机的外参的三维感知信息获取方法和路侧设备
CN109155822A (zh) 图像处理方法和装置
CN111353945B (zh) 鱼眼图像校正方法、装置及存储介质
CN109493387B (zh) 一种多摄像头光轴对齐的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant