CN110838143B - 一种多图像数据交互与信息融合方法、装置及可读存储介质 - Google Patents
一种多图像数据交互与信息融合方法、装置及可读存储介质 Download PDFInfo
- Publication number
- CN110838143B CN110838143B CN201911192258.5A CN201911192258A CN110838143B CN 110838143 B CN110838143 B CN 110838143B CN 201911192258 A CN201911192258 A CN 201911192258A CN 110838143 B CN110838143 B CN 110838143B
- Authority
- CN
- China
- Prior art keywords
- image
- data
- visible light
- infrared
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 15
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 4
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000004927 fusion Effects 0.000 claims abstract description 40
- 230000003287 optical effect Effects 0.000 claims description 63
- 230000000007 visual effect Effects 0.000 claims description 33
- 238000012544 monitoring process Methods 0.000 claims description 18
- 238000012806 monitoring device Methods 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 9
- 230000009191 jumping Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 2
- 230000008901 benefit Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000005693 optoelectronics Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Closed-Circuit Television Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种多图像数据交互与信息融合方法、装置及可读存储介质,所述方法包括如下步骤:获取不同属性图像的图像数据;根据图像数据中的视场数据获取对应的设备数据;根据预设显示条件、所述图像数据以及所述设备数据进行融合显示。本发明方法根据图像数据中的视场数据获取对应的设备数据,以及根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,由此解决了现有技术中存在的视图之间无法相互引导与标识的问题,取得了积极的技术效果。
Description
技术领域
本发明涉及信息综合显示技术领域,尤其涉及一种多图像数据交互与信息融合方法、装置及可读存储介质。
背景技术
现有的光电系统往往只是起到简单的监控作用,不同的图像传感器之间一般很少有信息交互。
发明内容
本发明实施例提供一种多图像数据交互与信息融合方法、装置及可读存储介质,用以解决现有技术中存在的视图之间无法相互引导与标识的问题。
第一方面,本发明实施例提供一种多图像数据交互与信息融合方法,所述方法包括如下步骤:
获取不同属性图像的图像数据;
根据图像数据中的视场数据获取对应的设备数据;
根据预设显示条件、所述图像数据以及所述设备数据进行融合显示。
可选的,在获取不同属性图像的图像数据之前,所述方法还包括:
计算不同视场角下红外图像和可见光图像的作用距离;以及,
标定不同视场角下红外图像和可见光图像的光轴偏差。
可选的,获取不同属性图像的图像数据,包括:
从光电监控设备中获取红外图像和可见光图像的视场角以及光轴的方位角;
根据图像数据中的视场数据获取对应的设备数据,包括:
根据所述视场角获取对应视场角下的作用距离和光轴偏差。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,包括:
在红外图像中开启可见光的光轴和视场范围标识,在红外图像中显示可见光图像的光轴,当红外视场角大于可见光视场角的情况下,在红外图像中显示可见光图像的视场范围;或者,
在可见光图像中开启红外的光轴和视场范围标识,在可见光图像中显示红外图像的光轴,当可见光视场角大于红外视场角的情况下,在可见光图像中显示红外图像的视场范围。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,还包括:
在雷达图像或电子地图中开启光电监控设备标识,通过雷达图像或电子地图显示光电图像的光轴指向、视场角以及作用距离。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,还包括:
在电子地图中开启雷达信息标识,通过电子地图显示雷达图像的等距圆环和正上方方位指向。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示之后,所述方法还包括:
在雷达图像或者电子地图进行双击操作的情况下,确定被点击点的方位角;
通过光电监控设备根据所述方位角将光电图像的光轴跳转至被点击点。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示之后,所述方法还包括:
在雷达图像或电子地图中进行标识操作的情况下,确定被标识点的方位角和距离;
根据所述方位角和距离将被标识点在电子地图或雷达图像中进行同步标识。
第二方面,本发明实施例提供一种多图像数据交互与信息融合装置,所述装置包括:
采集模块,用于获取不同属性图像的图像数据;
查询模块,用于根据图像数据中的视场数据获取对应的设备数据;
显控模块,用于根据预设显示条件、所述图像数据以及所述设备数据进行融合显示。
第三方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有信息传递的实现程序,所述程序被处理器执行时实现前述的方法的步骤。
本发明实施例通过根据图像数据中的视场数据获取对应的设备数据,以及根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,由此解决了现有技术中存在的视图之间无法相互引导与标识的问题,取得了积极的技术效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明第一实施例流程图;
图2为本发明第一实施例数据获取示意图;
图3为本发明第一实施例不同图像显示示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明第一实施例提供一种多图像数据交互与信息融合方法,如图1所示,所述方法包括如下步骤:
获取不同属性图像的图像数据;
根据图像数据中的视场数据获取对应的设备数据;
根据预设显示条件、所述图像数据以及所述设备数据进行融合显示。
在本发明实施例中,首先获取不同属性图像的图像数据,如图2所示,在本实施例中,不同属性图像包括光电图像,电子地图以及雷达图像,其中,光电监控设备具备如下功能:
查询红外图像视场角;
查询可见光图像视场角;
查询光轴方位角(俯仰角暂不参与不同图像之间的信息交互与融合);
设置光轴方位角(交互过程俯仰角一般设为零度);
雷达具备如下功能:
作用距离调整;
真北方向指示;
电子地图具备如下功能:
比例尺调整(缩放地图);
真北方向指示。
上述图像数据可以保存在计算机和/或对应的设备之中,在本实施例中,如图2所示,首先可以通过系统获取不同属性图像的图像数据,包括获取光电图像的方位数据、雷达图像的雷达数据以及电子地图的地图数据,其中,在本发明实施例中将红外图像和可见光图像统称为光电图像。
本发明实施例通过根据图像数据中的视场数据获取对应的设备数据,以及根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,由此解决了现有技术中存在的视图之间无法相互引导与标识的问题。
可选的,在获取不同属性图像的图像数据之前,所述方法还包括:
计算不同视场角下红外图像和可见光图像下的作用距离;以及,
标定不同视场角下红外图像和可见光图像的光轴偏差。
具体的说,在本实施例中,在获取不同属性图像的视场数据之前,系统数据库除应存储的基本数据外还应该存储以下数据:
预先计算好的不同视场角下红外图像的作用距离、预先计算好的不同视场角下可见光图像的作用距离;以及
预先标定的不同视场角下红外图像和可见光图像的光轴偏差,在发明实施例中将红外图像和可见光图像统称为光电图像。
可选的,获取不同属性图像的图像数据,包括:
从光电监控设备中获取红外图像和可见光图像的视场角以及光轴的方位角;
根据图像数据中的视场数据获取对应的设备数据,包括:
根据所述视场角获取对应视场角下的作用距离和光轴偏差。
具体的说,本实施例中可以通过显控系统后台不停地从光电监控设备中读取红外图像和可见光图像的视场角,以及光轴的方位角,并利用视场角数据在数据库中查询作用距离和光轴偏差。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,包括:
在红外图像中开启可见光的光轴和视场范围标识,在红外图像中显示可见光图像的光轴,当红外视场角大于可见光视场角的情况下,在红外图像中显示可见光图像的视场范围;或者,
在可见光图像中开启红外的光轴和视场范围标识,在可见光图像中显示红外图像的光轴,当可见光视场角大于红外视场角的情况下,在可见光图像中显示红外图像的视场范围。
具体的说,在本实施例中,包括两种显示情况,为光电图像之间的显示方案,在红外图像中开启可见光的光轴和视场范围标识功能后,红外图像中即可显示可见光的光轴,当红外视场角大于可见光视场角时,红外图像中即可显示可见光的视场范围。
在可见光图像中开启红外的光轴和视场范围标识功能后,可见光图像中即可显示红外的光轴,当可见光视场角大于红外视场角时,可见光图像中即可显示红外的视场范围。
如图3所示,红外图像中可以标识可见光的视场范围(红外视场角大于可见光视场角时)和光轴,可见光图像中可以标识红外的视场范围(可见光视场角大于红外视场角时)和光轴,光轴在正中心时视场范围在图像中心,当光轴发生偏移时,图像中的视场范围也会偏离图像中心,这样有利于快速地在不同的图像中找到相互匹配的目标。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,还包括:
在雷达图像或电子地图中开启光电监控设备标识,通过雷达图像或电子地图显示光电图像的光轴指向、视场角以及作用距离。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,还包括:
在电子地图中开启雷达信息标识,通过电子地图显示雷达图像的等距圆环和正上方方位指向。
具体的说,本实施例中,还包括另外两种显示方案,也即电子地图和雷达图像的显示方案,具体包括,在雷达图像中开启光电监控设备标识功能后,通过雷达图像即可显示光电图像的光轴指向、视场角、作用距离。
在电子地图中开启光电监控设备标识功能后,通过电子地图即可显示光电图像的光轴指向、视场角、作用距离。
雷达图像和电子地图中可以标识光电图像的光轴指向、视场角、作用距离,同时可以实时更新这些信息,如图2所示,当光电图像的光轴指向、视场角等发生变化时,雷达图像和电子地图上的视场范围(扇形区域)也会随之变化,这样能够实时地、很直观地知道目标相对观察点所处的方向。
电子地图中可以标识雷达图像的等距圆环和正上方方位指向,这样可以方便地把雷达图像和电子地图建立对应关系,有利于雷达图像的识别。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示之后,所述方法还包含:
在雷达图像或者电子地图进行双击操作的情况下,确定被点击点的方位角;
通过光电监控设备根据所述方位角将光电图像的光轴跳转至被点击点。
本实施例中,在雷达图像中双击某点时,显控系统后台计算该点的方位角,然后将此位置指令发送到光电监控设备,光电监控设备收到指令后会快速转至该点。
在电子地图中双击某点时,显控系统后台计算该点的方位角,然后将此位置指令发送到光电监控设备,光电监控设备收到指令后会快度转至该点。
在雷达图像中双击某点可将光电监控设备转至该点,这样若发现雷达图像中存在可疑目标,双击便可看到该目标,从而有利于确认目标。在电子地图中双击某点可将光电监控设备转至该点,这样可以快速观察到该点附近的情况,实现不同图像之间的深度融合。
可选的,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示之后,所述方法还包含:
在雷达图像或电子地图中进行标识操作的情况下,确定被标识点的方位角和距离;
根据所述方位角和距离将被标识点在电子地图或雷达图像中进行同步标识。
具体的说,在本实施例中,在雷达图像中可通过右键菜单标识某点,显控系统后台计算该点的方位角和距离,将该点在电子地图中同步标识。
在电子地图中可通过右键菜单标识某点,显控系统后台计算该点的方位角和距离,将该点在雷达图像中同步标识。
在雷达图像中可通过右键菜单标识某点,将该点在电子地图中同步标识,以便观察到当前可疑目标所处的地理位置与运动轨迹从而进一步确定目标的性质。在电子地图中可通过右键菜单标识某点,将该点在雷达图像中同步标识,这样若怀疑某地有可疑目标的存在,可以通过电子地图找到该可疑目标可能所处的地理位置,可通过右键菜单在雷达图像中同步标识该位置,以便于在雷达图像中找到可疑目标。
与现有的光电系统相比,本发明实施例实现了红外图像、可见光图像和雷达图像、电子地图之间的数据交互和信息融合,操作灵活、更人性化、能更清楚地对目标进行识别与定位。
第二方面,本发明实施例提供一种多图像数据交互与信息融合装置,所述装置包括:
采集模块,用于获取不同属性图像的图像数据;
查询模块,用于根据图像数据中的视场数据获取对应的设备数据;
显控模块,用于根据预设显示条件、所述图像数据以及所述设备数据进行融合显示。
系统数据库除应存储的基本数据外还应该存储以下数据:
预先计算好的不同视场角下红外图像的作用距离、预先计算好的不同视场角下可见光图像的作用距离;以及
预先标定的不同视场角下红外图像和可见光图像的光轴偏差,在发明实施例中将红外图像和可见光图像统称为光电图像。
采集模块,用于从光电监控设备中获取红外图像和可见光图像的视场角以及光轴的方位角、雷达图像的真北方向和作用距离,从计算机中获取电子地图的真北方向和比例尺;
查询模块,用于根据所述视场角从数据库中获取对应视场角下的作用距离和光轴偏差。
在本实施例中,显控模块,包括两种显示情况,为光电图像之间的显示方案,在红外图像中开启可见光的光轴和视场范围标识功能后,红外图像中即可显示可见光的光轴,当红外视场角大于可见光视场角时,红外图像中即可显示可见光的视场范围。
在可见光图像中开启红外的光轴和视场范围标识功能后,可见光图像中即可显示红外的光轴,当可见光视场角大于红外视场角时,可见光图像中即可显示红外的视场范围。
在雷达图像或电子地图中开启光电监控设备标识,通过雷达图像或电子地图显示光电图像的光轴指向、视场角以及作用距离。
显控模块,还用于在电子地图中开启雷达信息标识,通过电子地图显示雷达图像的等距圆环和正上方方位指向。
具体的说,本实施例中,还包括另外两种显示方案,也即电子地图和雷达图像的显示方案,具体包括,在雷达图像中开启光电监控设备标识功能后,通过雷达图像即可显示光电图像的光轴指向、视场角、作用距离。
在电子地图中开启光电监控设备标识功能后,通过电子地图即可显示光电图像的光轴指向、视场角、作用距离。
在雷达图像或者电子地图进行双击操作的情况下,确定被点击点的方位角;
通过光电监控设备根据所述方位角将光电图像的光轴跳转至被点击点。
本实施例中,在雷达图像中双击某点时,显控系统后台计算该点的方位角,然后将此位置指令发送到光电监控设备,光电监控设备收到指令后会快速转至该点。
在电子地图中双击某点时,显控系统后台计算该点的方位角,然后将此位置指令发送到光电监控设备,光电监控设备收到指令后会快度转至该点。
在雷达图像中双击某点可将光电监控设备转至该点,这样若发现雷达图像中存在可疑目标,双击便可看到该目标,从而有利于确认目标。在电子地图中双击某点可将光电监控设备转至该点,这样可以快速观察到该点附近的情况,实现不同图像之间的深度融合。
显控模块,还用于在雷达图像或电子地图中进行标识操作的情况下,确定被标识点的方位角和距离;
根据所述方位角和距离将被标识点在电子地图或雷达图像中进行同步标识。
具体的说,在本实施例中,在雷达图像中可通过右键菜单标识某点,显控系统后台计算该点的方位角和距离,该点将在电子地图中同步标识。
在电子地图中可通过右键菜单标识某点,显控系统后台计算该点的方位角和距离,该点将在雷达图像中同步标识。
在雷达图像中可通过右键菜单标识某点,该点将在电子地图中同步标识,以便观察到当前可疑目标所处的地理位置与运动轨迹从而进一步确定目标的性质。在电子地图中可通过右键菜单标识某点,该点将在雷达图像中同步标识,这样若怀疑某地有可疑目标的存在,可以通过电子地图找到该可疑目标可能所处的地理位置,可通过右键菜单在雷达图像中同步标识该位置,以便于在雷达图像中找到可疑目标。
与现有的光电系统相比,本发明实施例实现了红外图像、可见光图像和雷达图像、电子地图之间的数据交互和信息融合,操作灵活、更人性化、能更清楚地对目标进行识别与定位。
第三方面,本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有信息传递的实现程序,所述程序被处理器执行时实现第一实施例的方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (7)
1.一种多图像数据交互与信息融合方法,其特征在于,所述方法包括如下步骤:
获取不同属性图像的图像数据;
根据图像数据中的视场数据获取对应的设备数据;
根据预设显示条件、所述图像数据以及所述设备数据进行融合显示;
在获取不同属性图像的图像数据之前,所述方法还包括:
计算不同视场角下红外图像和可见光图像的作用距离;以及,
标定不同视场角下红外图像和可见光图像的光轴偏差;
获取不同属性图像的图像数据,包括:
从光电监控设备中获取红外图像和可见光图像的视场角以及光轴的方位角;
根据图像数据中的视场数据获取对应的设备数据,包括:
根据所述视场角获取对应视场角下的作用距离和光轴偏差;
根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,包括:
在红外图像中开启可见光的光轴和视场范围标识,在红外图像中显示可见光图像的光轴,当红外视场角大于可见光视场角的情况下,在红外图像中显示可见光图像的视场范围;或者,
在可见光图像中开启红外的光轴和视场范围标识,在可见光图像中显示红外图像的光轴,当可见光视场角大于红外视场角的情况下,在可见光图像中显示红外图像的视场范围。
2.如权利要求1所述的方法,其特征在于,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,还包括:
在雷达图像或电子地图中开启光电监控设备标识,通过雷达图像或电子地图显示光电图像的光轴指向、视场角以及作用距离。
3.如权利要求1所述的方法,其特征在于,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,还包括:
在电子地图中开启雷达信息标识,通过电子地图显示雷达图像的等距圆环和正上方方位指向。
4.如权利要求2所述的方法,其特征在于,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示之后,所述方法还包括:
在雷达图像或者电子地图进行双击操作的情况下,确定被点击点的方位角;
通过光电监控设备根据所述方位角将光电图像的光轴跳转至被点击点。
5.如权利要求2所述的方法,其特征在于,根据预设显示条件、所述图像数据以及所述设备数据进行融合显示之后,所述方法还包括:
在雷达图像或电子地图中进行标识操作的情况下,确定被标识点的方位角和距离;
根据所述方位角和距离将被标识点在电子地图或雷达图像中进行同步标识。
6.一种多图像数据交互与信息融合装置,其特征在于,所述装置包括:
采集模块,用于获取不同属性图像的图像数据;
查询模块,用于根据图像数据中的视场数据获取对应的设备数据;
显控模块,用于根据预设显示条件、所述图像数据以及所述设备数据进行融合显示;
在获取不同属性图像的图像数据之前,还包括:
计算不同视场角下红外图像和可见光图像的作用距离;以及,
标定不同视场角下红外图像和可见光图像的光轴偏差;
获取不同属性图像的图像数据,包括:
从光电监控设备中获取红外图像和可见光图像的视场角以及光轴的方位角;
根据图像数据中的视场数据获取对应的设备数据,包括:
根据所述视场角获取对应视场角下的作用距离和光轴偏差;
根据预设显示条件、所述图像数据以及所述设备数据进行融合显示,包括:
在红外图像中开启可见光的光轴和视场范围标识,在红外图像中显示可见光图像的光轴,当红外视场角大于可见光视场角的情况下,在红外图像中显示可见光图像的视场范围;或者,
在可见光图像中开启红外的光轴和视场范围标识,在可见光图像中显示红外图像的光轴,当可见光视场角大于红外视场角的情况下,在可见光图像中显示红外图像的视场范围。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有信息传递的实现程序,所述程序被处理器执行时实现如权利要求1至5中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911192258.5A CN110838143B (zh) | 2019-11-28 | 2019-11-28 | 一种多图像数据交互与信息融合方法、装置及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911192258.5A CN110838143B (zh) | 2019-11-28 | 2019-11-28 | 一种多图像数据交互与信息融合方法、装置及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110838143A CN110838143A (zh) | 2020-02-25 |
CN110838143B true CN110838143B (zh) | 2024-06-18 |
Family
ID=69577724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911192258.5A Active CN110838143B (zh) | 2019-11-28 | 2019-11-28 | 一种多图像数据交互与信息融合方法、装置及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110838143B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105572866A (zh) * | 2016-03-09 | 2016-05-11 | 成都速联创智科技有限责任公司 | 一种可见光与红外复合成像装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100434885C (zh) * | 2003-12-05 | 2008-11-19 | 广州科易光电技术有限公司 | 红外线热成像图像及可见光图像复合视频实时显控装置 |
US7924312B2 (en) * | 2008-08-22 | 2011-04-12 | Fluke Corporation | Infrared and visible-light image registration |
CN104359560A (zh) * | 2014-12-04 | 2015-02-18 | 山东神戎电子股份有限公司 | 基于步进电机的双光谱观测仪视场同步控制系统及方法 |
CN104618709B (zh) * | 2015-01-27 | 2017-05-03 | 天津大学 | 一种双双目红外与可见光融合立体成像系统 |
CN106501947A (zh) * | 2016-12-27 | 2017-03-15 | 云南北方驰宏光电有限公司 | 一种多光谱融合成像镜头及应用 |
CN108510528B (zh) * | 2017-02-28 | 2021-07-30 | 深圳市朗驰欣创科技股份有限公司 | 一种可见光和红外图像配准融合的方法及装置 |
CN207820070U (zh) * | 2017-12-21 | 2018-09-04 | 武汉三江中电科技有限责任公司 | 定焦红外与变焦可见光图像快速融合系统 |
CN108050958B (zh) * | 2018-01-11 | 2023-12-19 | 浙江江奥光电科技有限公司 | 一种基于视场匹配的单目深度相机及其对物体形貌的检测方法 |
CN108594410B (zh) * | 2018-04-13 | 2020-06-05 | 北京理工大学 | 半球空间远红外六倍连续变焦光学系统 |
CN108957478B (zh) * | 2018-07-23 | 2021-03-26 | 上海禾赛科技股份有限公司 | 多传感器同步采样系统及其控制方法、车辆 |
CN108957715B (zh) * | 2018-09-19 | 2021-07-06 | 江苏无线电厂有限公司 | 一种共轴光电侦察系统 |
-
2019
- 2019-11-28 CN CN201911192258.5A patent/CN110838143B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105572866A (zh) * | 2016-03-09 | 2016-05-11 | 成都速联创智科技有限责任公司 | 一种可见光与红外复合成像装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110838143A (zh) | 2020-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10061486B2 (en) | Area monitoring system implementing a virtual environment | |
CN103398717B (zh) | 全景地图数据库采集系统及基于视觉的定位、导航方法 | |
US8750559B2 (en) | Terminal and method for providing augmented reality | |
US9749809B2 (en) | Method and system for determining the location and position of a smartphone based on image matching | |
CN109523471B (zh) | 一种地面坐标和广角摄像机画面坐标的转换方法、系统以及装置 | |
EP2264622A2 (en) | Provision of target specific information | |
AU2009260182B2 (en) | Spatial predictive approximation and radial convolution | |
TW201139990A (en) | Video processing system providing overlay of selected geospatially-tagged metadata relating to a geolocation outside viewable area and related methods | |
CN109752713B (zh) | 一种雷达视频监视方法 | |
US20160169662A1 (en) | Location-based facility management system using mobile device | |
TW201142751A (en) | Video processing system generating corrected geospatial metadata for a plurality of georeferenced video feeds and related methods | |
CN110910459A (zh) | 一种对摄像装置的标定方法、装置及标定设备 | |
JP5274192B2 (ja) | 位置推定システム、位置推定サーバおよび位置推定方法 | |
CN108802714B (zh) | 用于将位置检测映射到图形表示的方法、设备和系统 | |
WO2020211593A1 (zh) | 交通道路的数字化重建方法、装置和系统 | |
JP2013222447A (ja) | 情報提示システム | |
KR101466132B1 (ko) | 카메라 통합 관리 시스템 및 그 방법 | |
CN115760999A (zh) | 一种基于gis辅助的单目相机校准和目标地理位置提取方法 | |
CN103557834B (zh) | 一种基于双摄像头的实体定位方法 | |
CN110838143B (zh) | 一种多图像数据交互与信息融合方法、装置及可读存储介质 | |
WO2024067133A1 (zh) | 基于3d地图的无人驾驶航空器飞行控制方法、系统和介质 | |
JP7432078B2 (ja) | 仮想情報がオーバーレイされたポータブルディスプレイデバイス | |
JP5513806B2 (ja) | 連携表示装置、連携表示方法、及びプログラム | |
JP6281947B2 (ja) | 情報提示システム、方法及びプログラム | |
JPH08240421A (ja) | カメラパラメータの推定方法およびそのパラメータ利用の物体認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |