CN110276286A - 一种基于tx2的嵌入式全景视频拼接系统 - Google Patents
一种基于tx2的嵌入式全景视频拼接系统 Download PDFInfo
- Publication number
- CN110276286A CN110276286A CN201910511712.2A CN201910511712A CN110276286A CN 110276286 A CN110276286 A CN 110276286A CN 201910511712 A CN201910511712 A CN 201910511712A CN 110276286 A CN110276286 A CN 110276286A
- Authority
- CN
- China
- Prior art keywords
- video
- image
- characteristic point
- module
- subsystem
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 54
- 230000000694 effects Effects 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims description 42
- 230000033001 locomotion Effects 0.000 claims description 23
- 238000005516 engineering process Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 13
- 230000004927 fusion Effects 0.000 claims description 12
- 238000012216 screening Methods 0.000 claims description 12
- 238000013473 artificial intelligence Methods 0.000 claims description 9
- 230000003190 augmentative effect Effects 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 8
- 239000011521 glass Substances 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 229910002056 binary alloy Inorganic materials 0.000 claims description 2
- 238000013442 quality metrics Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 6
- 230000002159 abnormal effect Effects 0.000 abstract 1
- 230000008447 perception Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 206010045178 Tunnel vision Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于TX2的嵌入式全景视频拼接系统,本发明能够用于对外部战场环境观察,拓展视野,并能够识别和判断周边环境威胁和异常,全方位提高作战人员感知战场环境的能力。在坦克等战车快速行驶过程中,车辆乘员在坦克内部能够利用本发明实时观察车周围360°信息,并且自动检测识别视频中的军事敏感目标,实时掌握车外战场环境军事目标信息,不需要将头或者身体探出车外,既扩大了观察视野,提高侦察效果,又能保证作战人员的人身安全。
Description
技术领域
本发明属于图像/视频处理和人工智能领域,尤其涉及一种基于TX2的嵌入式全景视频拼接系统。
背景技术
图像拼接是视频拼接的核心和基础,图像拼接问题由来已久。在现实生活中,常常想要获取大范围场景,但是由于摄像头拍摄角度有限,很难抓取到所期望得到的全部信息。虽然一些专业摄像头,广角摄像头和鱼眼摄像头的视角相对宽阔,但是一方面价格昂贵,另一方面图像失真严重,依然无法满足需求。因此,想要将多张有重叠区域的小视野图像对齐、构成大视野高分辨率图像,这就是图像拼接技术。图像拼接有效解决了单张图像分辨率低、拍摄视角小的问题。随着计算机技术的发展和计算机视觉的进步,也为图像拼接提供了广大应用空间,目前图像拼接技术被广泛应用于工业生产、日常生活、文化娱乐等多种领域。
视频拼接技术在学术界已经研究较多,但是利用NVIDIA Jetson TX2嵌入式平台的视频拼接技术,实现在复杂作战条件下中对战车周围视频进行实时360度拼接,并且对视频中敏感军事目标进行检测识别是一个新的应用方式,国内目前在这方面的应用较少。在军事应用方面,未来战场形势瞬息万变,坦克/装甲等战车乘员如何利用自身装备实时快速准确地获取战场作战信息是取得战斗胜利的关键所在,目前的坦克/装甲车辆等装备通常通过潜望镜或周视仪观察外部情况,易造成视野狭窄,难以快速识别周边威胁、定位目标,无法满足准确快速的作战侦察需求。
目标检测与识别是计算机视觉领域中一个基础性的研究课题,相关研究工作一直是计算机视觉的研究热点。特殊类别的目标检测,例如人脸、行人、民用车辆,检测技术己经较为成熟。但是,目前的检测识别所用的视频源基本都是摄像头静止可控情况下采集的,在复杂的作战环境中,针对车辆快速颠簸运动情况下采集的视频,如何准确快速地对视频中的重点目标进行检测识别尚没有相关的研究。
发明内容
本发明为战术战斗级作战车辆作战侦察装备的构建问题,提出一种基于TX2的嵌入式全景视频拼接系统。
本发明系统利用NVIDIA Jetson TX2核心板作为小型轻量化的嵌入式平台,该平台是基于NVIDIA PascalTM架构的AI单模块超级计算机,配置256CUDA cores,具有超强的GPU计算能力,可进行基于深度学习的人工智能技术开发。本发明主要基于该平台提供的NVIDIA Jetson SDK接口和高性能运算能力进行图像视频拼接和视频目标检测识别。
本发明系统包括视频采集分系统、视频拼接分系统、目标检测识别分系统和透视观察显示分系统;
所述视频采集分系统包括视频帧捕获模块和视频帧数据编码转换模块,所述视频帧捕获模块包括N路摄像头,视频帧捕获模块用于,实现对N路摄像头采集数据的捕获,捕获帧率设置为30fps,捕获的数据为UYVY 4:2:2编码的视频,并将捕获的视频数据传递给视频帧数据编码转换模块;
所述视频帧数据编码转换模块将视频转换为视频拼接分系统能够识别的RGB编码,并发送给视频拼接分系统;
所述视频拼接分系统利用OpenCV库进行实时的视频拼接融合,并将结果发送给目标检测识别分系统;
所述目标检测识别分系统用于,实现对视频中的军事敏感目标进行实时检测和识别,目标检测和识别结果将同步在透视观察显示分系统上进行显示。
本发明采用基于柱面投影的方法实现全景视频拼接。
所述N路摄像头部署在战车周围或作为一个N路摄像头模组部署在车顶部,所述摄像头为非广角、非鱼眼的普通摄像头。
所述视频拼接分系统部署在战车内部。
所述视频拼接分系统利用OpenCV库进行实时的视频拼接融合,其中,对于第一帧视频帧图像的拼接融合处理包括如下步骤:
步骤1,畸变矫正:摄像头提取的原始画面存在一定的畸变,采用基于二维屏幕棋盘格模板的方法对图像进行矫正畸变,可最大限度地还原真实画面(参考文献:Zhang ZY.A Flexible new technique for camera calibration[J].Transactions on PatternAnalysis and Machine Intelligence,2000,22(11):1330-1334.)。本步骤中获取的摄像头参数和畸变系数可保留用于后续视频帧。
步骤2,利用改进的SURF(加速稳健特征,Speeded Up Robust Features,SURF)
算法对视频帧图像提取特征点:在SURF特征矢量中增加了一个新的变量,即特征点的拉普拉斯属性,这两类特征点具有不同的属性,在匹配时只需对同类的特征点进行匹配,图像中两个特征点之间相似性的度量采用距离函数进行度量,通过相似性的度量就能够得到待配准图像间的潜在匹配点对,具体方法为:使用比值匹配法,即将一幅图像作为样本,在样本的特征点中寻找在另外一幅图像中与它距离最近的特征点和次近特征点,然后计算这两个特征点与样本点之间欧氏距离的比值,对于比值大于阈值(一般取值0.8)的特征点,则判定是正确匹配的特征点;
本发明在SURF特征矢量中增加了一个新的变量,加快匹配过程,即特征点的拉普拉斯相应正负号,这两类特征点具有不同的属性,在匹配时只需对同类的特征点进行匹配,这样会大大地提高匹配速度和精度。图像中两个特征点之间相似性的度量一般采用欧氏距离等距离函数进行度量,通过相似性的度量就可以得到待配准图像间的潜在匹配点对。具体方法为:使用比值匹配法,即将其中的一幅图像作为样本,在样本的特征点中寻找在另外一幅图像中与它距离最近的特征点和次近特征点,然后计算这两个特征点与样本点之间欧氏距离的比值。对于比值小于阈值范围内的特征点,则判定是正确匹配的特征点。
步骤3,根据相邻两个摄像头采集画面的重叠区域的大小对匹配的特征点进行筛选,设定每个摄像头采集的图像的宽度为W,重叠区域比例为f,则重叠区域的宽度为f*W,设定多个摄像头在水平方向呈圆形排列,则待融合的两幅源图像为左边图像、右边图像,左边图像的特征点为l-Points,右边图像的特征点为r-Points,特征点筛选方法为:如果,l-Points的宽度cols值大于f*W,同时小于W,该匹配点保留,否则丢弃;如果,r-Points的宽度cols值小于(1-f)*W,同时大于0,该匹配点保留,否则丢弃;
本发明提出一种改进的特征点筛选方法,减少特征点误匹配。本发明根据相邻两个摄像头之间重叠区域的大小对匹配的特征点进行高效筛选。假设摄像头采集的源图像的宽度为W,重叠区域比例为f,那么重叠区域的宽度为f*W,本发明中多个摄像头在水平方向呈圆形排列,因此,假设两幅待拼接融合的源图像分别为左边图像和右边图像。左边图像的特征点为l-Points,右边图像的特征点为r-Points,特征点筛选方法为:如果,l-Points的cols值大于f*W,小于W,该匹配点保留,否则丢弃;如果,r-Points的cols值小于(1-f)*W,大于0,该匹配点保留,否则丢弃。该方法对重叠区域的之外的匹配特征点对剔除,提高了特征匹配的精准度。避免了重叠区域之外的误匹配特征点对,同时减少了程序的耗时。
步骤4,为了在全景视频拼接时保持图像的空间约束与视觉一致性,采用柱面投影的方法对平面图像进行预处理,将在平面上提取的经过筛选的高度匹配特征点进行柱面投影变换,摄像头采集的画面都是平面的(相对于柱面而言);
本发明采用柱面投影的方法,将在平面上提取的经过筛选的高度匹配特征点进行柱面投影变换,以便准确计算两幅图像在后期融合时需要的变换量。
步骤5,确定平移量:利用步骤3筛选过的高度匹配的特征点计算出图像之间的平移量,然后将源图像平移到目标图像上;图像拼接平移量的计算方法是取所有匹配特征点平移量的平均值作为图像的平移量,计算公式为:
其中,Wt是目标图像宽度,Pi,x是目标图像上的特征点横坐标,P′i,x是源图像上的对应特征点的横坐标,Pi,y是目标图像上的特征点纵坐标,P′i,y是源图像上的对应特征点的纵坐标,,N是匹配的特征点数量,diffx是x方向平移量,diffy是y方向平移量。本步骤中获取的平移量可保留用于后续视频帧。
步骤6,图像融合:图像融合之前先分别进行柱面投影,将圆形分布的两个以上的视频帧投影到柱面上,取左边的图像为目标图像,右边的图像为源图像,源图像在平移量的作用下,与目标图像融合。
步骤6包括:设定图像拼接结果为Iresult,W和H分别表示拼接结果的宽和高,W′t和H′t分别表示目标图像柱面投影后的宽和高,W′s是源图像投影后的宽,W和H的计算方法为:
本发明中多个摄像头在水平方向圆形分布,将圆形分布的摄像头采集的视频帧图像用步骤1至步骤6的方法进行图像融合操作,可获得360°的全景视频。
本发明解决了不同朝向摄像头拍摄画面不满足视觉一致性的问题。经过柱面投影后的图像通过简单的平移就可以实现图像对齐融合。图像融合的具体方法为:取左边的图像为目标图像,右边的图像为源图像,源图像在平移量的作用下,可以与目标图像完美融合。
后续视频帧图像融合过程中所需的摄像头参数和畸变系数、图像平移量在模板帧即第一帧视频帧图像处理中就已得到,所以在后续视频帧的融合过程中免于进行摄像头标定、特征检测和匹配以及平移量计算,这对算法速度的提升起到很大作用。
另外,柱面投影变换和图像融合过程都使用了NVIDIA GPU的CUDA平台并行加速所以后续视频帧的处理速度快,可以做到实时拼接。实验结果表明,在NVIDIA 1080Ti GPU上运行该算法,可以实时地生成无缝清晰的全景视频。
所述目标检测识别分系统部署在战车内部,目标检测识别分系统包括目标定位跟踪模块,目标检测识别模块、网络传输模块和视频信息发送模块;
其中,目标定位跟踪模块,用于,利用麻省理工学院人工智能实验室提出的双目视觉技术实现对视频中的运动目标(士兵、战车、无人机等)进行定位跟踪;
目标检测识别模块,用于,基于深度卷积神经网络的人工智能技术实现对视频中军事敏感目标进行检测识别,并且将检测结果叠加到全景视频画面上;目标检测识别主要的难点是对视频图像检测的实时性问题。本发明针对基于深度学习的回归方法(YOLO/SSD/RNN等算法),调整优化参数,并且适当的减少RPN网络输出的候选框数量(减少30%),提升检测识别速度。
网络传输模块,用于,实现全景视频的压缩编码、发送和接收;
视频信息发送模块,用于,实现叠加目标检测识别信息的全景视频的发送,将视频帧信息转换为格式化的二进制信息并且调用网络传输模块,将信息发送到车载显示终端或者AR增强现实眼镜上,以便于后期观察显示。视频帧绘制显示支持的格式为:bmp,png,jpg等。
所述透视观察显示分系统部署在战车内部(包含显示载体硬件和显示软件),用于,实现对全景视频的接收和显示;显示载体为车内显示终端或AR增强现实眼镜(观察显示需要显示载体,例如头显或者平面显示器等,是透视观察显示分系统的硬件部分);
透视观察显示分系统包括视频信息接收处理模块和界面绘制显示模块;
其中,视频信息接收处理模块,用于,将叠加了目标检测识别信息的全景视频从二进制转化为能够绘制显示的MJPG4等格式;
界面绘制显示模块,用于,将视频信息接收处理模块处理过的全景视频信息进行实时刷新显示。
本发明首次将TX2平台引入到军用作战车辆作战侦察装备的构建中,与现有技术相比,其显著优点为:
(1)体积小。军事作战车辆内部空间及其有限,本发明使用中的TX2核心板面积大小只相当于一张银行卡,极大限度地降低了处理平台在车辆内占用的物理空间。
(2)低功耗。军事作战车辆在实际运动作战中,无法携带大功率电源,所以装备的供电是一个难题。本平台功耗仅为9W,对电源的依赖性低,可以长时间在野外工作。
(3)效率高。利用该平台的CUDA并行计算能力,在图像进行柱面投影时采用CUDA加速,可使视频拼接帧率达到近实时,同时可以快速地进行目标定位、跟踪和识别。检测识别所花时间是毫秒级。
(4)智能化:能够根据用户的第一人称视角,智能地显示用户关注的军事目标等信息。
(5)便携化:解放战车乘员双手,可在不影响本身工作的基础上对战车周围环境进行360度透视观察,并且自动检测识别视频中的军事敏感目标。这一优点在需要用双手操控坦克/装甲装备的战术用户身上体现尤为明显。
(6)安全性。车辆乘员不需要将头或者身体探出车外,既扩大了观察视野,提高侦察效果,又能保证作战人员的人身安全。
本发明借助布置于战车周围的多个摄像头进行周边环境的拍摄,进而对这些拍摄的视频帧进行特征点提取匹配融合,实现360度无缝的全景视频拼接处理。本技术综合了利用图像融合、虚拟与增强现实、通信导航等技术,将战场环境的360度视频投影在车载显示终端或装甲/坦克车辆乘员佩戴的增强现实头盔显示器上,使战车乘员能够在封闭甚至无窗的乘员舱内“透过”车辆装甲,对车外的环境进行实时观察,并且基于人工智能方法自动、高效检测识别车外士兵、坦克、战车和飞机等敏感目标,使乘员获得对车外环境的实时情况的感知能力,大幅提高索敌速度和准确度,增加歼敌几率。用于支撑战术级坦克/装甲车辆以及其他战车的作战侦察水平。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述或其他方面的优点将会变得更加清楚。
图1是一种基于TX2的嵌入式全景视频拼接系统柱面全景视频拼接及AR透视观察流程图。
图2是一种基于TX2的嵌入式全景视频拼接系统视频采集分系统摄像头模组图。
图3a是图像畸变矫正前效果图。
图3b是图像畸变矫正后效果图。
图4a是特征点筛选前示意图图。
图4b是特征点筛选后示意图。
图5a是一种基于TX2的嵌入式全景视频拼接系统摄像头排序方式柱面投影图。
图5b是一种基于TX2的嵌入式全景视频拼接系统柱面投影图。
图6a是图像投影前效果图。
图6b是图像投影后效果图。
图6c是图像融合后效果图。
图7是一种基于TX2的嵌入式全景视频拼接系统8路摄像头视频全景拼接过程图。
图8是一种基于TX2的嵌入式全景视频拼接系统多路摄像头全景拼接效果图。
图9是一种基于TX2的嵌入式全景视频拼接系统全景视频目标检测识别效果图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
基于TX2的嵌入式全景视频拼接系统,利用NVIDIAJetson TX2核心板作为小型轻量化的嵌入式平台,该平台是基于NVIDIA PascalTM架构的AI单模块超级计算机,配置256CUDA cores,具有超强的GPU计算能力,可进行基于深度学习的人工智能技术开发。本发明主要基于该平台提供的NVIDIA Jetson SDK接口和高性能运算能力进行图像视频拼接和视频目标检测识别。
基于TX2的嵌入式全景视频拼接系统由视频采集分系统、视频拼接分系统、目标检测识别分系统和透视观察显示分系统组成。本发明采用基于柱面投影的方法实现全景视频拼接,图1是柱面全景视频拼接及AR透视观察流程图。
所述视频采集分系统可部署在战车周围或作为一个N路摄像头模组部署在车顶部,采用的摄像头为非广角/鱼眼的普通摄像头。图2是视频采集摄像头模组。视频采集分系统包括:视频帧捕获模块,视频帧数据编码转换模块等2个模块。每个模块的具体功能如下:
视频帧捕获模块,实现对多路摄像头采集数据的捕获,捕获帧率设置为30fps,捕获后传递给视频帧数据编码转换模块。
视频帧数据编码转换模块,本发明采用的摄像头捕获的视频格式为UYVY 4:2:2编码,本模块将其转换为视频拼接输入能够识别的RGB编码。
所述视频拼接分系统可部署在战车内部。视频拼接分系统利用OpenCV库进行实时的视频拼接融合。视频拼接分系统中第一个视频帧图像的处理主要分为以下几个步骤:
(1)畸变矫正。摄像头提取的原始画面存在一定的畸变,本发明采用基于二维屏幕棋盘格模板的方法矫正畸变,可最大限度地还原真实画面。本步骤中获取的摄像头参数和畸变系数可保留用于后续视频帧。图3a是图像畸变矫正前效果图。图3b是图像畸变矫正后效果图。
(2)提取特征点。利用改进的SURF算法对视频帧图像提取特征点。本发明在SURF特征矢量中增加了一个新的变量,加快匹配过程,即特征点的拉普拉斯相应正负号,这两类特征点具有不同的属性,在匹配时只需对同类的特征点进行匹配,这样会大大地提高匹配速度和精度。图像中两个特征点之间相似性的度量一般采用欧氏距离等距离函数进行度量,通过相似性的度量就可以得到待配准图像间的潜在匹配点对。具体方法为:使用比值匹配法,即将其中的一幅图像作为样本,在样本的特征点中寻找在另外一幅图像中与它距离最近的特征点和次近特征点,然后计算这两个特征点与样本点之间欧氏距离的比值。对于比值小于某一阈值范围内的特征点,则认为是正确匹配的特征点。
(3)特征点筛选。本分系统提出一种改进的特征点筛选方法,减少特征点误匹配。本发明根据相邻两个摄像头之间重叠区域的大小对匹配的特征点进行高效筛选。假设图像的宽度为W,重叠区域比例为f,那么重叠区域的宽度为f*W,左边图像的特征点为l-Points,右边图像的特征点为r-Points,。特征点筛选方法为:如果,l-Points的cols值大于f*W,小于W,该匹配点保留,否则丢弃;如果,r-Points的cols值小于(1-f)*W,大于0,该匹配点保留,否则丢弃。该方法对重叠区域的之外的匹配特征点对剔除,提高了特征匹配的精准度。避免了重叠区域之外的误匹配特征点对,同时减少了程序的耗时。图4a是特征点筛选前示意图。图4b是特征点筛选后示意图。
(4)柱面投影。本发明采用柱面投影的方法,将在平面上提取的经过筛选的高度匹配特征点进行柱面投影变换,以便准确计算两幅图像在后期融合时需要的变换量。图5a是一种基于TX2的嵌入式全景视频拼接系统摄像头排序方式柱面投影图。图5b是一种基于TX2的嵌入式全景视频拼接系统柱面投影图。图6a是图像投影前效果图。
(5)确定平移量。经利用步骤3筛选过的高度匹配的特征点集计算出图像之间的平移量,然后将源图像平移到目标图像上即可。本步骤中获取的平移量可保留用于后续视频帧。
(6)图像融合。图像平移之后就可以进行融合。图像融合之前先分别进行柱面投影,将圆形分布的多个视频帧投影到柱面上,解决了不同朝向摄像头拍摄画面不满足视觉一致性的问题。图6b是图像投影后效果图。经过柱面投影后的图像通过简单的平移就可以实现图像对齐融合。图像融合的具体方法为:取左边的图像为目标图像,右边的图像为源图像,源图像在平移量的作用下,可以与目标图像完美融合。图6c是图像融合后效果图。
(7)后续视频帧图像融合过程中所需的摄像头参数和畸变系数、图像平移量在模板帧处理中就已得到,所以在后续视频帧的融合过程中免于进行摄像头标定、特征检测和匹配以及平移量计算,这对算法速度的提升起到很大作用。
另外,柱面投影变换和图像融合过程都使用了NVIDIA GPU的CUDA平台并行加速所以后续视频帧的处理速度快,可以做到实时拼接。实验结果表明,在NVIDIA 1080Ti GPU上运行该算法,可以实时地生成无缝清晰的全景视频。图7是8路摄像头视频全景拼接过程图。图8是全景视频效果图。
所述目标检测识别分系统部署在战车内部,实现对视频中的军事敏感目标进行实时检测和识别,目标检测识别结果将同步在车内显示终端和增强现实眼镜上叠加显示。目标检测识别分系统包括:目标定位跟踪模块,目标检测识别模块,、网络传输模块,视频信息发送模块等4个模块。4个模块的功能描述如下:
目标定位跟踪模块,利用麻省理工学院人工智能实验室提出的双目视觉技术实现对视频中的运动目标(士兵、战车、无人机等)进行定位跟踪。
目标检测识别模块,基于深度卷积神经网络的人工智能技术实现对视频中军事敏感目标进行检测识别。目标检测识别主要的难点是对视频图像检测的实时性问题。本发明针对基于深度学习的回归方法(YOLO/SSD/RNN等算法),调整优化参数,并且适当的减少RPN网络输出的候选框数量,提升检测识别速度。图9是全景视频目标检测识别效果图。
军事目标数据包含以下字段信息:
目标属性:序号、类别、方位、距离、敌我属性、行动意图、威胁程度;
军队关系属性:序号、类别、隶属部队、编制级别;
进行测试的目标信息字段如下表1所示:
表1
属性名称 | 长度(字节) | 类型 |
序号 | 4 | UINT |
类别 | 20 | char[] |
方位 | 25 | char[] |
距离 | 4 | UINT |
敌我属性 | 8 | char[] |
行动意图 | 254 | char[] |
威胁程度 | 32 | char[] |
网络传输模块,实现全息视频信息的压缩编码、发送和接收。
视频信息发送模块,实现叠加目标检测识别信息的全景视频的发送,将视频帧信息转换为格式化的二进制信息并且调用网络传输模块,将信息发送到车载显示终端或者AR增强现实眼镜上,以便于后期观察显示。视频帧绘制显示支持的格式为:bmp,png,jpg等。
所述透视观察显示分系统部署在战车内部,实现对全景视频流的接收和显示。显示载体可为车内显示终端或AR增强现实眼镜。透视观察显示分系统包括:视频信息接收处理模块和界面绘制显示模块2个模块。2个模块的功能描述如下:
视频信息接收处理模块,将叠加了目标检测识别信息的全景视频从二进制转化为可以绘制显示的MJPG4等格式。
界面绘制显示模块,将经过编码的全景视频信息进行实时刷新显示。
本发明提供了一种基于TX2的嵌入式全景视频拼接系统,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (8)
1.一种基于TX2的嵌入式全景视频拼接系统,其特征在于,包括视频采集分系统、视频拼接分系统、目标检测识别分系统和透视观察显示分系统;
所述视频采集分系统包括视频帧捕获模块和视频帧数据编码转换模块,所述视频帧捕获模块包括N路摄像头,视频帧捕获模块用于,实现对N路摄像头采集数据的捕获,并将捕获的视频数据传递给视频帧数据编码转换模块;
所述视频帧数据编码转换模块将视频转换为视频拼接分系统能够识别的RGB编码,并发送给视频拼接分系统;
所述视频拼接分系统利用OpenCV库进行实时的视频拼接融合,并将结果发送给目标检测识别分系统;
所述目标检测识别分系统用于,实现对视频中的军事敏感目标进行实时检测和识别,目标检测和识别结果将同步在透视观察显示分系统上进行显示。
2.根据权利要求1中所述的系统,其特征在于,所述N路摄像头部署在战车周围或作为一个N路摄像头模组部署在车顶部,所述摄像头为非广角、非鱼眼的摄像头。
3.根据权利要求2中所述的系统,其特征在于,所述视频拼接分系统部署在战车内部。
4.根据权利要求3中所述的系统,其特征在于,所述视频拼接分系统利用OpenCV库进行实时的视频拼接融合,其中,对于第一帧视频帧图像的拼接融合处理包括如下步骤:
步骤1,畸变矫正:采用基于二维屏幕棋盘格模板的方法对图像进行矫正畸变;
步骤2,利用改进的SURF算法对视频帧图像提取特征点:在SURF特征矢量中增加了一个新的变量,即特征点的拉普拉斯属性,这两类特征点具有不同的属性,在匹配时只需对同类的特征点进行匹配,图像中两个特征点之间相似性的度量采用距离函数进行度量,通过相似性的度量就能够得到待配准图像间的潜在匹配点对,具体方法为:使用比值匹配法,即将一幅图像作为样本,在样本的特征点中寻找在另外一幅图像中与它距离最近的特征点和次近特征点,然后计算这两个特征点与样本点之间欧氏距离的比值,对于比值大于阈值的特征点,则判定是正确匹配的特征点;
步骤3,根据相邻两个摄像头采集画面的重叠区域的大小对匹配的特征点进行筛选,设定每个摄像头采集的图像的宽度为W,重叠区域比例为f,则重叠区域的宽度为f*W,设定多个摄像头在水平方向呈圆形排列,则待融合的两幅源图像为左边图像、右边图像,左边图像的特征点为l-Points,右边图像的特征点为r-Points,特征点筛选方法为:如果,l-Points的宽度cols值大于f*W,同时小于W,该匹配点保留,否则丢弃;如果,r-Points的宽度cols值小于(1-f)*W,同时大于0,该匹配点保留,否则丢弃;
步骤4,采用柱面投影的方法对平面图像进行预处理,将在平面上提取的经过筛选的匹配特征点进行柱面投影变换;
步骤5,确定平移量:利用步骤3筛选过的高度匹配的特征点计算出图像之间的平移量,然后将源图像平移到目标图像上;图像拼接平移量的计算方法是取所有匹配特征点平移量的平均值作为图像的平移量,计算公式为:
其中,Wt是目标图像宽度,Pi,x是目标图像上的特征点横坐标,P'i,x是源图像上的对应特征点的横坐标,Pi,y是目标图像上的特征点纵坐标,P'i,y是源图像上的对应特征点的纵坐标,,N是匹配的特征点数量,diffx是x方向平移量,diffy是y方向平移量。
步骤6,图像融合:图像融合之前先分别进行柱面投影,将圆形分布的两个以上的视频帧投影到柱面上,取左边的图像为目标图像,右边的图像为源图像,源图像在平移量的作用下,与目标图像融合。
5.根据权利要求4中所述的系统,其特征在于,步骤6包括:设定图像拼接结果为Iresult,W和H分别表示拼接结果的宽和高,W′t和H′t分别表示目标图像柱面投影后的宽和高,W′s是源图像投影后的宽,W和H的计算方法为:
6.根据权利要求5中所述的系统,其特征在于,将圆形分布的摄像头采集的视频帧图像用步骤1至步骤6的方法进行图像融合操作,获得360°的全景视频。
7.根据权利要求6中所述的系统,其特征在于,所述目标检测识别分系统部署在战车内部,目标检测识别分系统包括目标定位跟踪模块,目标检测识别模块、网络传输模块和视频信息发送模块;
其中,目标定位跟踪模块,用于,对视频中的运动目标进行定位跟踪;
目标检测识别模块,用于,基于深度卷积神经网络的人工智能技术实现对视频中军事敏感目标进行检测识别,并且将检测结果叠加到全景视频画面上;
网络传输模块,用于,实现全景视频的压缩编码、发送和接收;
视频信息发送模块,用于,实现叠加目标检测识别信息的全景视频的发送,将视频帧信息转换为格式化的二进制信息,并且调用网络传输模块,将信息发送到车载显示终端或者AR增强现实眼镜上。
8.根据权利要求7中所述的系统,其特征在于,所述透视观察显示分系统部署在战车内部,用于,实现对全景视频的接收和显示;显示载体为车内显示终端或AR增强现实眼镜;
透视观察显示分系统包括视频信息接收处理模块和界面绘制显示模块;
其中,视频信息接收处理模块,用于,将叠加了目标检测识别信息的全景视频从二进制转化为能够绘制显示的格式;
界面绘制显示模块,用于,将经过视频信息接收处理模块处理过的全景视频信息进行实时刷新显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910511712.2A CN110276286B (zh) | 2019-06-13 | 2019-06-13 | 一种基于tx2的嵌入式全景视频拼接系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910511712.2A CN110276286B (zh) | 2019-06-13 | 2019-06-13 | 一种基于tx2的嵌入式全景视频拼接系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110276286A true CN110276286A (zh) | 2019-09-24 |
CN110276286B CN110276286B (zh) | 2022-03-04 |
Family
ID=67962182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910511712.2A Active CN110276286B (zh) | 2019-06-13 | 2019-06-13 | 一种基于tx2的嵌入式全景视频拼接系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110276286B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161138A (zh) * | 2019-12-31 | 2020-05-15 | 北京城市网邻信息技术有限公司 | 用于二维全景图像的目标检测方法、装置、设备、介质 |
CN112215925A (zh) * | 2020-11-05 | 2021-01-12 | 中国矿业大学 | 自适应采煤机随动跟踪多摄像头视频拼接方法 |
CN113642441A (zh) * | 2021-08-06 | 2021-11-12 | 浙江大学 | 一种可视化增强体育视频的设计方法 |
CN115131717A (zh) * | 2022-08-30 | 2022-09-30 | 珠海翔翼航空技术有限公司 | 一种基于图像分析的预警方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110157354A1 (en) * | 2008-07-30 | 2011-06-30 | Shoji Kawahito | Distance image sensor and method for generating image signal by time-of-flight method |
CN103020941A (zh) * | 2012-12-28 | 2013-04-03 | 昆山市工业技术研究院有限责任公司 | 基于全景拼接的旋转摄像头背景建立法及运动物体检测法 |
CN105488775A (zh) * | 2014-10-09 | 2016-04-13 | 东北大学 | 一种基于六摄像机环视的柱面全景生成装置及方法 |
CN105550995A (zh) * | 2016-01-27 | 2016-05-04 | 武汉武大卓越科技有限责任公司 | 隧道影像拼接方法及系统 |
US9792709B1 (en) * | 2015-11-23 | 2017-10-17 | Gopro, Inc. | Apparatus and methods for image alignment |
US20180101931A1 (en) * | 2016-10-10 | 2018-04-12 | Gopro, Inc. | Apparatus and methods for the optimal stitch zone calculation of a generated projection of a spherical image |
CN207637310U (zh) * | 2017-12-27 | 2018-07-20 | 苏州卓视蓝电子科技有限公司 | 车辆周围移动物体的检测报警装置 |
CN108389220A (zh) * | 2018-02-05 | 2018-08-10 | 湖南航升卫星科技有限公司 | 遥感视频图像运动目标实时智能感知方法及其装置 |
CN109425265A (zh) * | 2017-08-25 | 2019-03-05 | 极光飞行科学公司 | 飞行器成像与瞄准系统 |
CN109559320A (zh) * | 2018-09-18 | 2019-04-02 | 华东理工大学 | 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统 |
CN109753878A (zh) * | 2018-12-06 | 2019-05-14 | 北京科技大学 | 一种恶劣天气下的成像识别方法及系统 |
-
2019
- 2019-06-13 CN CN201910511712.2A patent/CN110276286B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110157354A1 (en) * | 2008-07-30 | 2011-06-30 | Shoji Kawahito | Distance image sensor and method for generating image signal by time-of-flight method |
CN103020941A (zh) * | 2012-12-28 | 2013-04-03 | 昆山市工业技术研究院有限责任公司 | 基于全景拼接的旋转摄像头背景建立法及运动物体检测法 |
CN105488775A (zh) * | 2014-10-09 | 2016-04-13 | 东北大学 | 一种基于六摄像机环视的柱面全景生成装置及方法 |
US9792709B1 (en) * | 2015-11-23 | 2017-10-17 | Gopro, Inc. | Apparatus and methods for image alignment |
CN105550995A (zh) * | 2016-01-27 | 2016-05-04 | 武汉武大卓越科技有限责任公司 | 隧道影像拼接方法及系统 |
US20180101931A1 (en) * | 2016-10-10 | 2018-04-12 | Gopro, Inc. | Apparatus and methods for the optimal stitch zone calculation of a generated projection of a spherical image |
CN109425265A (zh) * | 2017-08-25 | 2019-03-05 | 极光飞行科学公司 | 飞行器成像与瞄准系统 |
CN207637310U (zh) * | 2017-12-27 | 2018-07-20 | 苏州卓视蓝电子科技有限公司 | 车辆周围移动物体的检测报警装置 |
CN108389220A (zh) * | 2018-02-05 | 2018-08-10 | 湖南航升卫星科技有限公司 | 遥感视频图像运动目标实时智能感知方法及其装置 |
CN109559320A (zh) * | 2018-09-18 | 2019-04-02 | 华东理工大学 | 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统 |
CN109753878A (zh) * | 2018-12-06 | 2019-05-14 | 北京科技大学 | 一种恶劣天气下的成像识别方法及系统 |
Non-Patent Citations (1)
Title |
---|
李婷: "无人机影像拼接关键技术研究", 《中国优秀硕士学位论文全文数据库 基础科学辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161138A (zh) * | 2019-12-31 | 2020-05-15 | 北京城市网邻信息技术有限公司 | 用于二维全景图像的目标检测方法、装置、设备、介质 |
CN112215925A (zh) * | 2020-11-05 | 2021-01-12 | 中国矿业大学 | 自适应采煤机随动跟踪多摄像头视频拼接方法 |
CN113642441A (zh) * | 2021-08-06 | 2021-11-12 | 浙江大学 | 一种可视化增强体育视频的设计方法 |
CN113642441B (zh) * | 2021-08-06 | 2023-11-14 | 浙江大学 | 一种可视化增强体育视频的设计方法 |
CN115131717A (zh) * | 2022-08-30 | 2022-09-30 | 珠海翔翼航空技术有限公司 | 一种基于图像分析的预警方法及系统 |
CN115131717B (zh) * | 2022-08-30 | 2022-12-20 | 珠海翔翼航空技术有限公司 | 一种基于图像分析的预警方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110276286B (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110276286A (zh) | 一种基于tx2的嵌入式全景视频拼接系统 | |
CN111062905B (zh) | 一种基于显著图增强的红外和可见光融合方法 | |
WO2022042049A1 (zh) | 图像融合方法、图像融合模型的训练方法和装置 | |
CN109934117B (zh) | 基于生成对抗网络的行人重识别检测方法 | |
US20160224856A1 (en) | Occlusion handling for computer vision | |
CN106780620A (zh) | 一种乒乓球运动轨迹识别定位与跟踪系统及方法 | |
CN108171787A (zh) | 一种基于orb特征检测的三维重建方法 | |
CN109300145B (zh) | 自适应智能伪装系统 | |
CN111462128A (zh) | 一种基于多模态光谱图像的像素级图像分割系统及方法 | |
CN109407697A (zh) | 一种基于双目视觉测距的无人机跟踪运动目标系统及方法 | |
EP2537140A2 (en) | Method and system for detection and tracking employing multi view multi spectral imaging | |
CN106056624A (zh) | 无人机高清图像小目标检测与跟踪系统及其检测跟踪方法 | |
KR20060013640A (ko) | 항공 화상의 자동 처리 | |
CN107560592A (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN106875419A (zh) | 基于ncc匹配帧差的弱小动目标跟踪丢失重检方法 | |
CN110207671A (zh) | 一种天基智能成像系统 | |
Yu et al. | Design and performance evaluation of an ai-based w-band suspicious object detection system for moving persons in the iot paradigm | |
CN106530406A (zh) | 增强及虚拟现实的光场光源定向法及前端设备 | |
CN108765354A (zh) | 一种动态目标识别跟踪图像数据优化传输方法及系统 | |
CN108737743B (zh) | 基于图像拼接的视频拼接装置及视频拼接方法 | |
CN108876672A (zh) | 一种远程教育教师自动识别图像优化跟踪方法及系统 | |
Zhang et al. | Boosting transferability of physical attack against detectors by redistributing separable attention | |
CN117975276A (zh) | 一种基于双目视觉的实时战场三维场景与目标感知方法及系统 | |
CN112132870A (zh) | 森林火灾早期烟雾检测方法 | |
CN113449566A (zh) | 人在回路的“低慢小”目标智能图像跟踪方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 210000 No.1, Lingshan South Road, Qixia District, Nanjing City, Jiangsu Province Applicant after: THE 28TH RESEARCH INSTITUTE OF CHINA ELECTRONICS TECHNOLOGY Group Corp. Address before: 210007 No. 1 East Street, alfalfa garden, Jiangsu, Nanjing Applicant before: THE 28TH RESEARCH INSTITUTE OF CHINA ELECTRONICS TECHNOLOGY Group Corp. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |