CN106331631B - 一种两路视频重合方法 - Google Patents
一种两路视频重合方法 Download PDFInfo
- Publication number
- CN106331631B CN106331631B CN201610765869.4A CN201610765869A CN106331631B CN 106331631 B CN106331631 B CN 106331631B CN 201610765869 A CN201610765869 A CN 201610765869A CN 106331631 B CN106331631 B CN 106331631B
- Authority
- CN
- China
- Prior art keywords
- image
- way
- data
- offset
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明具体涉及一种应用于图像监控的两路视频重合方法,其特征在于步骤如下:1)获得两幅图像中对应的拍摄物中心点及每幅图像的四个边角点坐标数据;2)将两幅图像平移变换,使其图像中心点会聚在一起,分别获得每幅图像会聚后的四个边角点的坐标数据和图像的偏移量;3)拟合曲线方程,生成矩阵数据;4)利用获得的曲线方程,计算图像的偏移量,并生成矩阵数据,将两路摄像头镜头拍摄的图像进行实时处理,会聚成一路视频。本发明具有图像合成效果好的优点。
Description
技术领域
本发明具体涉及一种应用于图像监控的两路视频重合方法。
背景技术
在实际图像监控应用时,经常遇到由相距很近的两个或多个摄像头对同一场景拍摄然后又需要将两路图像叠加在一起显示的情况。由于两路摄像机的镜头光路不重合,造成了所拍摄到的图像不会完全相同:场景中的同一物体在各摄像机的像场中存在一个和拍摄距离相关的偏移量。由于此偏移量随拍摄距离不同而不同所以无法通过简单的图像平移而完成重合。现有技术可通过计算机分析所拍摄的图像内容找出同帧图像具有相同或相近的特征部分完成重合。但是,当不同的摄像机所拍摄的图像是不同光学波长的图像时,由于同一被摄影物体的光波随波长不同而不同,而在拍摄到的图像内容可能存在很大差异,采用上述方式计算重合可能就找不到相同的特征点了。
发明内容
本发明的目的在于解决目前图像监控时,两路摄像头对同一场景拍摄的图像由于光路不重合无法叠加在一起显示的缺陷,提供一种两路视频重合方法,其利用激光测距或其它已知方式测得拍摄距离,然后根据已经确定的不同摄像机镜头光轴的偏移量以及镜头的焦距数据计算出所拍摄图像的偏移量完成图像的叠合处理。
本发明是通过如下技术方案来实现的:
即一种两路视频重合方法,其特征在于步骤如下:
1)对两路摄像机镜头拍摄的图像进行灰度处理,利用目标区域灰度直方图分布特征对图像进行分块搜索,获得两幅图像中对应的拍摄物中心点坐标数据,获得每幅图像的四个边角点坐标数据。
2)将两幅图像平移变换,使其拍摄物中心点会聚在一起,利用两路摄像机镜头焦距数据获得两幅图像对应视场角大小数据,在激光测距的辅助下,利用两路摄像机镜头光轴的偏移量以及镜头的焦距数据分别获得每幅图像会聚后的四个边角点的坐标数据和图像的偏移量;
3)根据坐标数据和图像偏移量的变化,生成坐标数据和图像偏移量曲线关系图,利用曲线关系图拟合曲线方程;
4)两路摄像头镜头连续拍摄,随着拍摄物距离的不断变化,标定的边角点的空间三维坐标发生变化,利用曲线方程获得图像的偏移量,并通过标定矩阵获取矩阵数据,两路摄像头镜头拍摄的图像进行实时处理,会聚成一路视频。
本发明使用Datafit、MatLab、Origin等拟合软件来拟合曲线方程。
本发明的原理如下:
通过静态的两幅图像的坐标变化和偏移量变化,得出每个边角点的曲线关系图,再拟合成曲线方程,然后再利用获得的曲线方程去反推两路摄像头获取的不断变化的图像的边角点的偏移量,获得矩阵数据,实时会聚成一路视频。
本发明的两路摄像机镜头拍摄的图像,基于灰度分布和形状特征,快速标定图像四个边角点的空间三维坐标。
本发明根据激光测距辅助,两路摄像机镜头光轴的偏移量以及镜头的焦距数,据使检测目标在空间内呈现不同的空间三维坐标,从而完成在复杂背景下针对多个疑似目标的自动检测及目标识别。
如果要建立从2D空间到3D空间的映射关系,两视图几何作为立体图像处理的数学基础,是解决问题的根本。会聚成像系统的两视图几何,会聚成像系统得到的图像转换为平行成像系统的图像,即使对极线平行的过程叫图像矫正,图像矫正是图像合成的一种有效的方法。两系统拍摄的照片,上面叠加了对应点和他们的对极线。
使用基础矩阵,基础矩阵是对极几何的代数表示,即描述了摄像机在两个不同位置拍摄同一场景所获得的两幅图像的几何关系,存在一个从一幅图像上的点到另一幅图像上与之对应的对极线的映射,基础矩阵正是这个映射的本质。
基础矩阵描述了两幅图像之间存在的基本几何关系,对于平行系统,一场点在两幅图像上的投影只有水平差异,没有垂直差异。计算矩阵的方法有很多种,本发明采用标定矩阵,根据拍摄物分别在两路视频输入形成的图像信息进行手动标定图像四个点的坐标,根据红外激光测距辅助,在不同距离获得两幅图像不同的会聚的坐标。根据获得的数据坐标,拟合每个边角点的曲线方程。随着拍摄物距离的不断变化,标定的坐标发生变化。标定坐标的变化,导致基础矩阵发生变化,获取不同的矩阵数据,两幅图像进行实时处理,会聚成一副图像。至此空间中拍摄物,在两路摄像机距离不同的变化下,进行图像合成。
本发明具有图像合成效果好的优点。
附图说明
图1为两路摄像机镜头正常拍摄的图像;
图2为两路图像简单重合的示意图;
图3为两路图像平移变换后的示意图;
图4为其中一个边角点的坐标位移量和图像偏移量的曲线关系图;
具体实施方式
如图1所示:对两路摄像机镜头拍摄的图像进行灰度处理,利用目标区域灰度直方图分布特征对图像进行分块搜索,获得两幅图像中对应的拍摄物中心点A点和B点坐标数据,获得每幅图像的四个边角点坐标数据;
如图2所示:将图像1和图像2简单合成后会发现A点和B点并不能重合。
如图3所示:采用平移变化,将图像1的A点和图像2的B点会聚在一起,此时通过激光测距的辅助,两路摄像机镜头光轴的偏移量以及镜头的焦距数据分别获得每幅图像会聚后的四个边角点的坐标数据;
[f1(x),f1’(x)],[f2(x),f2’(x)],[f3(x),f3’(x)],[f4(x),f4’(x)]为图像偏移量。
根据边角点的空间位移量变化和图像偏移量变化,得出其中每一个边角点的坐标位移量和图像偏移量的曲线关系图(共8条),下面为其中一个边角点的空间位移量变化和图像偏移量的具体数据,表格中X为空间位移变化,Y为图像偏移量。
根据上述变化得出的坐标位移量和图像偏移量的曲线关系图如图4所示。
通过8条曲线关系图,利用Datafit拟合曲线方程,方程如下:
通过曲线方程,即可根据坐标位移量算出四个边角点的偏移量,
并通过标定矩阵获取3*3的变换矩阵数据
至此,两路摄像机镜头不断拍摄图像,随着拍摄物距离的不断变化,标定的坐标发生变化。标定坐标的变化,导致基础矩阵发生变化,获取不同的矩阵数据,两幅图像进行实时处理,会聚成一路视频。
Claims (1)
1.一种两路视频重合方法,其特征在于步骤如下:
1)对两路摄像机镜头拍摄的图像进行灰度处理,利用目标区域灰度直方图分布特征对图像进行分块搜索,获得两幅图像中对应的拍摄物中心点坐标数据,获得每幅图像的四个边角点坐标数据;
2)将两幅图像平移变换,使其拍摄物中心点会聚在一起,利用两路摄像机镜头焦距数据获得两幅图像对应视场角大小数据,在激光测距的辅助下,利用两路摄像机镜头光轴的偏移量以及镜头的焦距数据分别获得每幅图像会聚后的四个边角点的坐标数据和图像的偏移量;
3)根据坐标数据和图像偏移量的变化,生成坐标数据和图像偏移量曲线关系图,利用曲线关系图拟合曲线方程;
4)两路摄像头镜头连续拍摄,随着拍摄物距离的不断变化,标定的边角点的空间三维坐标发生变化,利用曲线方程获得图像的偏移量,并通过标定矩阵获取矩阵数据,两路摄像头镜头拍摄的图像进行实时处理,会聚成一路视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610765869.4A CN106331631B (zh) | 2016-08-30 | 2016-08-30 | 一种两路视频重合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610765869.4A CN106331631B (zh) | 2016-08-30 | 2016-08-30 | 一种两路视频重合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106331631A CN106331631A (zh) | 2017-01-11 |
CN106331631B true CN106331631B (zh) | 2019-10-25 |
Family
ID=57788838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610765869.4A Active CN106331631B (zh) | 2016-08-30 | 2016-08-30 | 一种两路视频重合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106331631B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102589516A (zh) * | 2012-03-01 | 2012-07-18 | 长安大学 | 一种基于双目线扫描摄像机的动态距离测量系统 |
CN103686107A (zh) * | 2013-12-13 | 2014-03-26 | 华为技术有限公司 | 一种基于投影图像的处理方法及装置 |
CN105160680A (zh) * | 2015-09-08 | 2015-12-16 | 北京航空航天大学 | 一种基于结构光的无干扰深度相机的设计方法 |
CN105654502A (zh) * | 2016-03-30 | 2016-06-08 | 广州市盛光微电子有限公司 | 一种基于多镜头多传感器的全景相机标定装置和方法 |
-
2016
- 2016-08-30 CN CN201610765869.4A patent/CN106331631B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102589516A (zh) * | 2012-03-01 | 2012-07-18 | 长安大学 | 一种基于双目线扫描摄像机的动态距离测量系统 |
CN103686107A (zh) * | 2013-12-13 | 2014-03-26 | 华为技术有限公司 | 一种基于投影图像的处理方法及装置 |
CN105160680A (zh) * | 2015-09-08 | 2015-12-16 | 北京航空航天大学 | 一种基于结构光的无干扰深度相机的设计方法 |
CN105654502A (zh) * | 2016-03-30 | 2016-06-08 | 广州市盛光微电子有限公司 | 一种基于多镜头多传感器的全景相机标定装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106331631A (zh) | 2017-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8600192B2 (en) | System and method for finding correspondence between cameras in a three-dimensional vision system | |
CN114746717A (zh) | 利用偏振进行表面法线感测的系统和方法 | |
KR102149276B1 (ko) | 영상 정합 방법 | |
CN103776419B (zh) | 一种提高测量范围的双目视觉测距方法 | |
US11488322B2 (en) | System and method for training a model in a plurality of non-perspective cameras and determining 3D pose of an object at runtime with the same | |
US9807372B2 (en) | Focused image generation single depth information from multiple images from multiple sensors | |
CN103868460A (zh) | 基于视差优化算法的双目立体视觉自动测量方法 | |
Phuc Truong et al. | Registration of RGB and thermal point clouds generated by structure from motion | |
CN106033614B (zh) | 一种强视差下的移动相机运动目标检测方法 | |
CN105258673B (zh) | 一种基于双目合成孔径聚焦图像的目标测距方法、装置 | |
CN107560592A (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
JP7378219B2 (ja) | 撮像装置、画像処理装置、制御方法、及びプログラム | |
Patel et al. | Distance measurement system using binocular stereo vision approach | |
Starr et al. | Application of thermal infrared stereo vision in fire environments | |
Nedevschi | Online cross-calibration of camera and lidar | |
CN114359406A (zh) | 自动对焦双目摄像头的标定、3d视觉及深度点云计算方法 | |
CN105335959B (zh) | 成像装置快速对焦方法及其设备 | |
Beltran et al. | A comparison between active and passive 3d vision sensors: Bumblebeexb3 and Microsoft Kinect | |
CN109084959B (zh) | 一种基于双目测距算法的光轴平行度校正方法 | |
CN108205799B (zh) | 一种图像拼接方法及装置 | |
Rajabzadeh et al. | Static object depth estimation using defocus blur levels features | |
CN112330747A (zh) | 基于无人机平台的多传感器联合探测和显示方法 | |
CN106331631B (zh) | 一种两路视频重合方法 | |
Weinmann et al. | Fusing passive and active sensed images to gain infrared-textured 3D models | |
TWI502162B (zh) | 雙影像導引追瞄之射擊系統與方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |