CN107480602A - 一种低成本目标视觉跟踪方法及系统 - Google Patents
一种低成本目标视觉跟踪方法及系统 Download PDFInfo
- Publication number
- CN107480602A CN107480602A CN201710619073.2A CN201710619073A CN107480602A CN 107480602 A CN107480602 A CN 107480602A CN 201710619073 A CN201710619073 A CN 201710619073A CN 107480602 A CN107480602 A CN 107480602A
- Authority
- CN
- China
- Prior art keywords
- module
- target
- tracking
- data
- color space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种低成本目标视觉跟踪方法,包括以下步骤:S1、视频图像格式转换,将采集到的图像数据进行转换,将图像数据从YUV颜色空间转换到RGB颜色空间,再转换到HSV颜色空间;S2、色彩空间转换,根据初始跟踪边界框的选取特征,对HSV颜色空间中不同的分量使用二元分类器将ROI从图像中分离出来,利用二元分类器将图像进行分类,建立视频图像的分类器数据分布图。本发明还提供了一种低成本目标视觉跟踪系统。本发明的有益效果是:降低了功耗、满足视频的高速度和高分辨率要求,实现实时目标视觉跟踪。
Description
技术领域
本发明涉及目标视觉跟踪方法,尤其涉及一种低成本目标视觉跟踪方法及系统。
背景技术
近年来目标视觉跟踪技术在世界范围内吸引了众多的研究者,并产生了许多新的理论及技术成果。一般的,计算机视觉是指用计算机来模拟人的视觉系统实现人的视觉功能,来适应和理解外界环境和控制自身的运动。视觉系统主要解决物体识别、物体状态确认以及物体运动判断等问题。如图1所示为常见的基于GPU(Graphics Processing Unit,图像处理器)或DSP(Digital Signal Processor,数字信号处理器)的目标视觉跟踪系统。
对图1中各模块说明如下:
摄像头模块:摄像头模块在目标视觉跟踪系统中负责视频图像数据的采集,并通过外部接口输入GPU或DSP进行处理。摄像头采集视频图像数据、图像预处理和图像传输对整个目标视觉跟踪系统具有重要意义。
存储器:存储器在目标视觉跟踪系统中负责视频图像数据的存储。通过存储器进行图像数据缓存,为视频图像数据的读出和写入及数据的更改提供了操作空间。
LCD显示器:LCD显示器模块在目标视觉跟踪系统中负责视频及跟踪效果的显示。当GPU或DSP进行算法处理获取跟踪结果时,需要对存储器内的视频图像数据进行更新,最终通过LCD显示器进行图像输出,使用户更直观的感受跟踪过程。
GPU或DSP:该模块在目标视觉跟踪系统中负责跟踪算法的处理。通过输入的视频图像数据,采用指定的算法进行目标视觉跟踪,获取目标跟踪结果,根据目标跟踪结果更新存储器内部图像数据,并驱动LCD显示器将视频图像输出。
现有的目标视觉跟踪系统多是基于GPU或DSP进行软件编程实现,但是由于其功耗高、分辨率低、速度慢、实时性差、算法复杂等众多缺陷,目前在便携式设备、无人机等应用领域中未得到大范围的推广使用。
发明内容
为了解决现有技术中的问题,本发明提供了一种低成本目标视觉跟踪方法及系统。
本发明提供了一种低成本目标视觉跟踪方法,包括以下步骤:
S1、视频图像格式转换,将采集到的图像数据进行转换,将图像数据从YUV颜色空间转换到RGB颜色空间,再转换到HSV颜色空间;
S2、色彩空间转换,根据初始跟踪边界框的选取特征,对HSV颜色空间中不同的分量使用二元分类器将ROI从图像中分离出来,利用二元分类器将图像进行分类,建立视频图像的分类器数据分布图;
S3、视觉跟踪,分两个通道同时进行:一个通道是通过Kalman预估器利用上一帧目标的位置和运动状态对当前帧的目标的位置和运动状态进行预估,另一个通道是通过CamShift算法利用视频图像的二元分类器分布图对目标进行跟踪,通过优化选择判定最佳跟踪结果,并将该跟踪结果输入Kalman预估器进行相关参数的校正,等待下一帧的计算,同时根据最佳跟踪对存储器内的视频图像数据进行更新,最终进行显示,完成目标视觉跟踪。
作为本发明的进一步改进,在步骤S2中,使用二元分类器,根据初始跟踪边界框的选取特征,对HSV颜色空间中不同的分量使用二元分类器将ROI从图像中分离出来,如式(1),并且在后续操作中仅使用分类二值图像,
式中是前一帧边界框中像素的HSV分量均值,HT、ST、VT是预设阈值,Hkc、Skc、Vkc是当前图像像素的分类值,属于ROI的为正例,反之为负例。
作为本发明的进一步改进,提供一种HSV加权分类器防止出现阈值漂移,如式(2),
Akc=1,if W(HSV)<AT (2)
式中的是对HSV分量进行加权,α、β、γ是每个分量的加权系数且(α+β+γ=1),默认图像触发信号为静息,只有当Hkc、Skc、Vkc、Akc四个值都为1时,当前像素分类为ROI,即ROIkc=Hkc&Skc&Vkc&Akc。
作为本发明的进一步改进,在步骤S3中,提供加权计算阶矩,如式(3)。
式中W(·)表示加权函数,I(·)表示像素的分类值,当前像素距离前帧边界框中心的距离越近,权值越大,边界框的位置和尺寸如式(4),
xc、yc是预测边界框的中心,s是边界框的尺寸。
本发明提供了一种低成本目标视觉跟踪系统,包括数据预处理模块、控制器模块、写入缓存模块、读出缓存模块、预估跟踪器模块、自适应跟踪器模块、数据处理模块和存储器数据更新控制模块,其中,所述控制器模块分别与所述数据处理模块、预估跟踪器模块、自适应跟踪器模块、读出缓存模块、存储器数据更新控制模块连接,所述数据处理模块分别与所述预估跟踪器模块、自适应跟踪器模块、存储器数据更新控制模块连接,所述自适应跟踪器模块与所述读出缓存模块连接,所述数据预处理模块的输出端与所述写入缓存模块的输入端连接。
作为本发明的进一步改进,所述数据预处理模块包括数据拼接电路、YCbCr 4:2:2转YCbCr 4:4:4转换电路、YUV颜色空间转RGB颜色空间转换电路、RGB颜色空间转HSV颜色空间转换电路和二元分类器分类电路,其中,所述数据拼接电路的输出端与所述YCbCr 4:2:2转YCbCr 4:4:4转换电路的输入端连接,所述YCbCr 4:2:2转YCbCr 4:4:4转换电路的输出端与所述YUV颜色空间转RGB颜色空间转换电路的输入端连接,所述YUV颜色空间转RGB颜色空间转换电路的输出端与所述RGB颜色空间转HSV颜色空间转换电路的输入端连接,所述RGB颜色空间转HSV颜色空间转换电路的输出端与所述二元分类器分类电路的输入端连接。
作为本发明的进一步改进,所述预估跟踪器模块包括模块初始化电路、Kalman预估器预测模块和Kalman预估器校准模块,其中,所述模块初始化电路的输出端分别与所述Kalman预估器预测模块、Kalman预估器校准模块连接,所述Kalman预估器校准模块的输出端与所述Kalman预估器预测模块连接,所述Kalman预估器预测模块的输出端与所述Kalman预估器校准模块连接。
作为本发明的进一步改进,所述自适应跟踪器模块包括读控制模块、阶矩计算模块、目标位置数据处理模块、判定模块和自适应处理模块,其中,所述读控制模块的输出端与所述阶矩计算模块连接,所述阶矩计算模块的输出端与所述目标位置数据处理模块连接,所述目标位置数据处理模块的输出端与所述判定模块连接,所述判定模块的输出端分别与所述读控制模块、自适应处理模块连接。
本发明的有益效果是:通过上述方案,降低了功耗、满足视频的高速度和高分辨率要求,实现实时目标视觉跟踪。
附图说明
图1现有技术中基于GPU或DSP的目标视觉跟踪系统的示意图。
图2是本发明一种低成本目标视觉跟踪方法的流程框图。
图3是本发明一种低成本目标视觉跟踪系统的总体示意图。
图4是本发明一种低成本目标视觉跟踪系统的数据预处理模块的示意图。
图5是本发明一种低成本目标视觉跟踪系统的预估跟踪器模块的示意图。
图6是本发明一种低成本目标视觉跟踪系统的自适应跟踪器模块的示意图。
图7是本发明一种低成本目标视觉跟踪系统的存储器的示意图。
图8是本发明一种低成本目标视觉跟踪方法的并行化CamShift算法模块结构的示意图。
具体实施方式
下面结合附图说明及具体实施方式对本发明作进一步说明。
如图2所示,一种低成本目标视觉跟踪方法,基于CamShift算法进行优化,加入二元分类器和Kalman预估器实现目标区域(ROI)与背景区域的快速分离与双模式跟踪,针对可硬件实现的目标对融合的算法进行深入优化与裁剪,算法包括:1)视频图像格式转换;2)色彩空间转换;3)视觉跟踪,具体包括以下步骤:
S1、视频图像格式转换,将采集到的图像数据进行转换,将图像数据从YUV颜色空间转换到RGB颜色空间,再转换到HSV颜色空间,进行膨胀与腐蚀处理;
S2、色彩空间转换,根据初始跟踪边界框的选取特征,对HSV颜色空间中不同的分量使用二元分类器将ROI从图像中分离出来,利用二元分类器将图像进行分类,建立视频图像的分类器数据分布图;
S3、视觉跟踪,分两个通道同时进行:一个通道是通过Kalman预估器利用上一帧目标的位置和运动状态对当前帧的目标的位置和运动状态进行预估,另一个通道是通过CamShift算法利用视频图像的二元分类器分布图对目标进行跟踪,通过优化选择判定最佳跟踪结果,并将该跟踪结果输入Kalman预估器进行相关参数的校正,等待下一帧的计算,同时根据最佳跟踪对存储器内的视频图像数据进行更新,最终进行显示,完成目标视觉跟踪。
在步骤S2中,使用二元分类器,根据初始跟踪边界框的选取特征,对HSV颜色空间中不同的分量使用二元分类器将ROI从图像中分离出来,如式(1),并且在后续操作中仅使用分类二值图像,降低了运算成本;
式中是前一帧边界框中像素的HSV分量均值,HT、ST、VT是预设阈值,Hkc、Skc、Vkc是当前图像像素的分类值,属于ROI的为正例,反之为负例。
在步骤S2中,提供一种HSV加权分类器以防止出现阈值漂移,如式(2),
Akc=1,if W(HSV)<AT (2)
式中的是对HSV分量进行加权,α、β、γ是每个分量的加权系数且(α+β+γ=1),默认图像触发信号为静息,只有当Hkc、Skc、Vkc、Akc四个值都为1时,当前像素分类为ROI,即ROIkc=Hkc&Skc&Vkc&Akc。
在进行CamShift跟踪时,普通meanShift算法直接使用一阶矩和零阶矩计算求出预测边界框的中心位置,但有背景混淆或局部遮挡时,会将干扰噪声计算进去,造成跟踪漂移。为解决此问题,在步骤S3中,提供加权计算阶矩,如式(3)。
式中W(·)表示加权函数,I(·)表示像素的分类值,当前像素距离前帧边界框中心的距离越近,权值越大,边界框的位置和尺寸如式(4),
xc、yc是预测边界框的中心,s是边界框的尺寸。一般的,边界框的宽度w=s、高度h=1.2s。
如图2所示,由于CamShift在跟踪移动范围较小的目标时具有良好的效果,但是跟踪移动范围较大的目标时效果较差,与之相反,Kalman预估在估计移动范围较大的目标时具有显著效果,而预估移动范围较小的目标时精确度较差。因此,结合两个算法的特点,基于经典CamShift算法进行了优化与改进,融合分类器和Kalman预估器,在使用CamShift算法进行目标搜索时,当前边界框的尺寸与前一帧边界框的尺寸相比过大或过小,将使用Kalman预估器对跟踪边界框进行修正,最终得到正确的跟踪目标位置。
如图2所示,本发明提供的一种低成本目标视觉跟踪方法,在跟踪目标不超出视野的前提下,算法可以在目标和摄像头同时运动的情况下进行跟踪工作。首先将摄像头拍摄的图像经过YUV和RGB等图像格式的过渡最终转换到HSV颜色空间,然后进行ROI的选取。针对系统的实时性和硬件实现性,提出了一种使用二元分类器从HSV色彩空间中标记ROI而不经过反向投影复杂运算的快速实时视觉跟踪算法,每个像素的表示由24bit降为1bit,减少了数据量,降低了实现成本。其中阈值根据跟踪目标的已知HSV的均值进行设定。
如图3所示,一种低成本目标视觉跟踪系统,包括数据预处理模块700、控制器模块200、写入缓存模块800、读出缓存模块500、预估跟踪器模块300、自适应跟踪器模块400、数据处理模块100和存储器数据更新控制模块600,其中,所述控制器模块200分别与所述数据处理模块100、预估跟踪器模块300、自适应跟踪器模块400、读出缓存模块500、存储器数据更新控制模块600连接,所述数据处理模块100分别与所述预估跟踪器模块300、自适应跟踪器模块400、存储器数据更新控制模块600连接,所述自适应跟踪器模块400与所述读出缓存模块500连接,所述数据预处理模块700的输出端与所述写入缓存模块800的输入端连接。
如图3所示,本发明提供的一种低成本目标视觉跟踪系统,数据转换算法模块将采集到的图像数据进行转换,将图像从YUV颜色空间转换到RGB颜色空间,再转换到HSV颜色空间,并通过相关配置,利用二元分类器将图像进行分类,建立视频图像的分类器数据分布图。目标视觉跟踪算法分两个通道同时进行:一个通道是通过Kalman预估器利用上一帧目标的位置和运动状态对当前帧的目标的位置和运动状态进行预估,另一个通道是通过CamShift算法利用视频图像的分类器分布图对目标进行跟踪,通过优化选择判定最佳跟踪结果,并将该跟踪结果输入Kalman预估器进行相关参数的校正,等待下一帧的计算,同时根据最佳跟踪对存储器内的视频图像数据进行更新,最终通过LCD显示器进行显示,完成目标视觉跟踪。
如图3所示,本发明提供的一种低成本目标视觉跟踪系统的各个模块的功能和作用如下:
(1)数据预处理模块(Data_pre)700:目标视觉跟踪系统的图像数据采集模块输出的图像数据为YUV颜色空间数据,该数据预处理模块700将图像从YUV颜色空间转换至RGB颜色空间,再转换至HSV颜色空间,通过相关配置,利用分类器对图像进行分类,建立视频图像的分类器数据分布图,用于跟踪模块。
(2)控制器模块(Controller)200:该模块主要是调控跟踪电路各个模块信号的输入与输出,及跟踪电路与整个系统之间的控制信号的通信。
(3)写入缓存模块(Algo_wr_interface)800:该模块主要是负责数据预处理模块100和数据存储器之间的数据通路,负责两个模块之间的数据同步。
(4)读出缓存模块(Algo_rd_interface)500:该模块主要是负责数据存储器和跟踪算法模块之间的数据通路,负责两个模块之间的数据同步。
(5)预估跟踪器模块(Kalman_calc)300:该模块主要负责两部分功能,分别是运动状态预估功能和参数校正功能,运动状态预估功能是通过利用上一帧经过校正后的参数,预估当前帧目标的运动状态;参数校正功能是利用当前帧目标的实际运动状态对运动状态预估功能引入的误差进行修正,校正相关参数。
(6)自适应跟踪器模块(CamShift_calc)400:该模块主要实现两部分功能,首先是通过meanShift算法对当前帧目标进行跟踪,获取目标的位置信息,然后通过分类器的分布信息,实现目标的自适应大小计算,最终输出CamShift自适应跟踪模块的跟踪结果。
(7)数据处理模块(Data_pro)100该模块是目标视觉跟踪的重要部分,其主要负责对Kalman预估器模块和CamShift自适应跟踪模块输出的跟踪结果进行分析判定,获取实际跟踪结果,并将该数据同时发往加框模块和Kalman预估器模块作相应的处理。
(8)存储器数据更新控制模块(Square_add)600:为方便用户更直观感受跟踪结果,该模块根据实际跟踪结果对视频存储器内部的图像数据进行更新。
如图4所示,所述数据预处理模块700包括数据拼接电路701(ALGO_cmos_8_16bit)、YCbCr 4:2:2转YCbCr 4:4:4转换电路702(ALGO_yuv422_2yuv444)、YUV颜色空间转RGB颜色空间转换电路703(ALGO_yuv444_2rgb888)、RGB颜色空间转HSV颜色空间转换电路704(ALGOrgb8882hsv)和二元分类器分类电路705(ALGOclassifiercalc),其中,所述数据拼接电路701的输出端与所述YCbCr 4:2:2转YCbCr 4:4:4转换电路702的输入端连接,所述YCbCr 4:2:2转YCbCr 4:4:4转换电路702的输出端与所述YUV颜色空间转RGB颜色空间转换电路703的输入端连接,所述YUV颜色空间转RGB颜色空间转换电路703的输出端与所述RGB颜色空间转HSV颜色空间转换电路704的输入端连接,所述RGB颜色空间转HSV颜色空间转换电路704的输出端与所述二元分类器分类电路705的输入端连接。
颜色空间转换算法是数据预处理模块的关键,该算法主要是将YUV颜色空间的图像数据转换成RGB颜色空间的图像数据,再转换成HSV颜色空间的像素数据,为后续的分类器提供精确且鲁棒性较高的参数数据。在实际应用过程中,摄像头的输出数据为YUV颜色空间的YCbCr 4:2:2数据格式的图像数据,而若以YUV颜色空间的图像数据作为分类器的分类数据,由于其稳定性较低,对在视频采集过程中出现的光照及亮度变化等不利因素的处理能力较低,不利于提高分类器的分类性能,导致出现数据漂移导致分类错误,最终影响跟踪效果,所以需要一个鲁棒性较高、能有效抑制光照及亮度变化等不利因素的数据格式,提高分类器的准确度。
由于在视频采集过程中,会出现光照的明暗变化等不利因素,YUV颜色空间对该不利因素处理能力较低,从而影响分类器分类的准确度,而HSV颜色空间对此类情况的处理能力较高,其数据鲁棒性较高,颜色空间数据适合于进行分类,颜色空间转换算法将采集到的视频图像进行颜色空间转换,获取HSV颜色空间的图像数据。在实际应用中,摄像头采集输出的数据为YUV颜色空间的YCbCr 4:2:2格式数据,且单笔数据分高位和低位传输,为方便后续算法处理,进行数据拼接,获取单笔YCbCr 4:2:2格式完整数据。为进行YUV颜色空间与RGB颜色空间的转换,需要首先将YUV颜色空间的YCbCr 4:2:2数据格式转换成YCbCr 4:4:4数据格式,然后通过颜色空间转换,最后获取HSV颜色空间参数数据。二元分类器通过利用HSV颜色空间的像素数据对图像进行分类。在本发明中,采用二元分类器实现分类,将图像分类为目标区域和背景区域,并建立分类数据的分布图。
对数据预处理模块700的各个模块介绍如下:
(1)数据拼接电路701(ALGO_cmos_8_16bit):摄像头的输出数据为YCbCr 4:2:2格式数据,分高位和低位连续传输。数据拼接电路将高位和低位的数据进行拼接,获取完整的单笔YCbCr 4:2:2格式数据;
(2)YCbCr 4:2:2转YCbCr 4:4:4转换电路702(ALGO_yuv422_yuv444):摄像头采集到的数据为YUV颜色空间的YCbCr 4:2:2格式,在进行颜色空间转换前,该转换电路将YCbCr4:2:2格式的图像数据转换成YCbCr 4:4:4格式的图像数据;
(3)YUV颜色空间转RGB颜色空间转换电路703(ALGO_yuv444_2rgb888):该转换电路将视频图像进行YUV颜色空间向RGB颜色空间转换,将YUV颜色空间YCbCr 4:4:4格式的图像数据转换成24bit/像素的RGB图像数据;
(4)RGB颜色空间转HSV颜色空间转换电路704(ALGO_rgb888_2hsv):该转换电路将视频图像进行HSV颜色空间转换,将RGB格式的图像数据转换成HSV颜色空间的参数数据,用于二元分类器进行分类;
(5)二元分类器分类电路705(ALGO_classifier_calc):该二元分类器电路将视频图像HSV颜色空间的图像数据进行分类。本发明采用二分类器进行分类,利用二分类器,将视频图像分类成前景(目标)和背景,并建立分类数据的分布图,方便后续的跟踪算法。
如图5所示,所述预估跟踪器模块300包括模块初始化电路302(Kalman_ini)、Kalman预估器预测模块301(Kalman_pre)和Kalman预估器校准模块303(Kalman_cor),其中,所述模块初始化电路302的输出端分别与所述Kalman预估器预测模块301、Kalman预估器校准模块303连接,所述Kalman预估器校准模块303的输出端与所述Kalman预估器预测模块301连接,所述Kalman预估器预测模块301的输出端与所述Kalman预估器校准模块303连接。
Kalman算法利用线性系统状态方程,通过系统输入与输出观测数据,对系统状态进行最优估计。Kalman算法分为Kalman预测和Kalman校正两个重要组成部分,Kalman预测部分是利用上一次Kalman计算的实际状态值对当前状态值进行预测,预测状态值与实际状态值存在一定的误差,而当前状态的测量值与实际状态值也存在一定的误差,为降低误差,Kalman校正部分利用预测状态值和测量状态值进行校正,获取更具有可信度的实际状态值。在本发明中,Kalman预估器模块主要包括Kalman预估器预测模块及Kalman预估器校准模块。在实际跟踪应用过程中,Kalman预估器模块中的预测模块利用上一帧目标的实际运动状态预估当前帧目标的运动状态,由于目标运动的随机性及连续性且预估器的预估模块是基于线性系统进行预测,故目标运动状态的预测与目标实际状态值存在一定偏差,若在后续计算中不予以校准,则会引起偏差累积,最终导致跟踪失败。为了对目标运动状态的校准,Kalman预估器校准模块利用目标运动状态的预估值和测量值进行偏差校准,确保目标视觉跟踪的有序进行。
所述预估跟踪器模块300的各个模块说明如下:
(1)模块初始化电路302(Kalman_ini):该模块主要负责Kalman预估器的电路初始化,在目标视觉跟踪过程中存在跟踪目标更换问题,当选择新的跟踪目标时,进行Kalman预估器的电路重置,将上一个目标的数据进行清除,防止其对当前目标跟踪产生影响;
(2)Kalman预估器预测模块301(Kalman_pre):该模块利用线性系统特性,利用上一帧目标跟踪的实际状态值预估当前帧跟踪目标的状态值;
(3)Kalman预估器校准模块303(Kalman_cor):该模块主要负责跟踪目标的状态值校准,在跟踪过程中,由于Kalman预估器预估过程中会引入误差,若不进行校准,则会引起误差累积导致跟踪发生错误,Kalman预估器校准模块进行误差校准,确保Kalman预估器对跟踪目标运动状态描述的合理性。
如图6所示,所述自适应跟踪器模块400包括读控制模块401、阶矩计算模块402、目标位置数据处理模块403、判定模块404和自适应处理模块405,其中,所述读控制模块401的输出端与所述阶矩计算模块402连接,所述阶矩计算模块402的输出端与所述目标位置数据处理模块403连接,所述目标位置数据处理模块403的输出端与所述判定模块404连接,所述判定模块404的输出端分别与所述读控制模块401、自适应处理模块405连接。
CamShift算法又称为连续自适应的meanShift算法,即CamShift算法有两大核心,分别是meanShift算法和自适应算法。meanShift算法的算法原理是利用概率密度的梯度爬升来寻找局部最优值,其概率密度分布图主要是基于视频图像的反向投影图;自适应算法是应对跟踪目标发生形变时,针对meanShift算法的计算结果进行自适应处理。在传统的meanShift算法应用于目标视觉跟踪中,其主要是基于视频图像的反向投影图进行算法计算,但在硬件电路中,建立反向投影图的占用资源率高,且受视频清晰度及帧率限制,本发明对其进行了优化,利用二元分类器对图像进行分类,并同时建立分类数据的分布图,在处理速度和资源占用率上得到了极大的优化。
在本发明中,meanShift跟踪模块利用数据预处理模块建立的分类器数据分布图进行目标跟踪,在跟踪过程中,meanShift跟踪模块良好的描述了跟踪目标的运动信息,但不能良好的描述跟踪目标的形变信息,而自适应算法则很好的解决了这个问题,自适应算法对meanShift跟踪模块对跟踪目标的运动信息的描述和分类器数据分布图进行分析计算,针对跟踪过程中目标的形变,做出相应的处理。meanShift跟踪模块和自适应处理模块组成CamShift自适应跟踪模块,良好的描述了跟踪目标的运动信息和形变信息。
所述自适应跟踪器模块400的各个模块说明如下:
(1)读控制模块401(Command_generator):该模块主要负责进行分类器数据分布图读取控制;
(2)阶矩计算模块402(M00_calc、M01_calc、M10_calc):该模块主要进行阶矩计算,由meanShift算法原理可知,其主要进行零阶矩计算和一阶矩计算;
(3)目标位置数据处理模块403(Data_pro):该模块主要进行目标位置的计算,由meanShift算法原理可知,通过分析处理零阶矩和一阶矩的输出数据,计算当前次迭代计算目标的质心位置;
(4)判定模块404(Ana_calc):该模块主要负责对数据处理模块的输出数据进行分析处理,由meanShift算法原理可知,需要比对前后两次目标的质心位置,当符合一定的精度要求时,即可停止迭代计算,若未符合精度要求,考虑帧率的限制,若超过预设迭代次数时,停止迭代计算并输出数据,若未超过预设阈值,则继续进行迭代计算,直到符合精度要求或超过预设阈值;
(5)自适应处理模块405(Ada_calc):该模块主要负责应对跟踪过程中目标的形变问题,在跟踪过程中,由于跟踪目标与摄像头之间存在不确定距离关系,使目标在视频图像中出现形变问题,而meanShift算法对目标的位置有良好的描述性能,但是不能良好的描述目标的形变,所以需要自适应模块来处理目标运动的形变问题。在本发明中,自适应处理模块利用meanShift模块的输出。
如图7所示,为了节约FPGA和DDR的资源,将摄像头输出设置为YCbCr 4:2:2格式,输出分辨率为1080P。首先把摄像头数据转换为RGB格式,一方面利用Channel 0进行视频处理,四帧图像乒乓操作,使用HDMI输出并显示。另一方面将RGB图像转换到HSV色彩空间,然后通过二元分类器判别出ROI,利用Channel 1写入DDR3,读出ROI二元图像后给目标跟踪算法模块,算法电路计算出边界框的左上角和右下角像素位置,并输出至视频加框模块,随后利用Channel 2在相应位置实时加入跟踪窗口。系统设计过程中,DDR3的上述3个通道的读取操作是并行执行的。将进行第N帧的转换、识别与标记时,进行第(N-1)帧的跟踪,同时进行第(N-2)帧的显示。
搜索阶段使用预处理输出的1bit/像素的ROI加窗数据,在显示阶段使用图像的RGB数据。为了满足数据的吞吐,对DDR3的做了如图3所示优化,将DDR3的多通道分为2个区域,每个区域可以存储4帧1080P的图像,在操作过程中,每2帧作为一组,这样可以在进行乒乓操作的同时也能够满足系统并行操作的要求和提高系统的性能。由于摄像头输出的视频图像数据是串行连续输入,系统大量使用浮点数进行计算,为保证计算速度和图像连续性,避免产生软件实现时的非实时和丢帧现象的发生,在预处理和检测过程,使用了多级流水线进行格式转换和ROI分类。虽然系统能同时对一组图像进行跟踪操作,但是考虑到大多数高速摄像的快门时间为1/60s,一般不会超过1/120s,因此我们每次仅对一帧图像进行跟踪,以满足整个系统的低成本要求。
在传统软件实现过程中,CamShift算法在计算xc、yc时需要串行迭代执行meanShift算法直到结果收敛或达到迭代上限,如式(5)。
式中是当前目标的位置,s是边界框的尺寸,x是前一帧的目标位置,g(·)是meanShift核函数的导数。计算过程中数据都是串行执行的,这种方法计算时间开销过大,无法进行满足实时运算,跟踪高速运动的物体时很容易发生丢帧,长时间误差累计会产生跟踪窗口与帧图像不匹配的现象。为了解决这个问题,本发明提出并行CamShift算法,如图8所示。将串行收敛运算并行化,同时计算所有提案目标位置xi,当输入图像尺寸为M×N时,算法复杂度由Ο(MN)降为Ο(lognMN),其中n为并行线程数。
本发明提供的一种低成本目标视觉跟踪方法及系统,使用FPGA平台将会实现真正的并行化处理;满足视频的高速度和高分辨率要求,实现实时目标视觉跟踪;为目标视觉跟踪系统芯片的设计奠定了一定的基础。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (8)
1.一种低成本目标视觉跟踪方法,其特征在于,包括以下步骤:
S1、视频图像格式转换,将采集到的图像数据进行转换,将图像数据从YUV颜色空间转换到RGB颜色空间,再转换到HSV颜色空间;
S2、色彩空间转换,根据初始跟踪边界框的选取特征,对HSV颜色空间中不同的分量使用二元分类器将ROI从图像中分离出来,利用二元分类器将图像进行分类,建立视频图像的分类器数据分布图;
S3、视觉跟踪,分两个通道同时进行:一个通道是通过Kalman预估器利用上一帧目标的位置和运动状态对当前帧的目标的位置和运动状态进行预估,另一个通道是通过CamShift算法利用视频图像的二元分类器分布图对目标进行跟踪,通过优化选择判定最佳跟踪结果,并将该跟踪结果输入Kalman预估器进行相关参数的校正,等待下一帧的计算,同时根据最佳跟踪对存储器内的视频图像数据进行更新,最终进行显示,完成目标视觉跟踪。
2.根据权利要求1所述的低成本目标视觉跟踪方法,其特征在于:在步骤S2中,使用二元分类器,根据初始跟踪边界框的选取特征,对HSV颜色空间中不同的分量使用二元分类器将ROI从图像中分离出来,如式(1),并且在后续操作中仅使用分类二值图像,
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>k</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>|</mo>
<msub>
<mi>H</mi>
<mi>k</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>H</mi>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>|</mo>
<mo><</mo>
<msub>
<mi>H</mi>
<mi>T</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>S</mi>
<mrow>
<mi>k</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>|</mo>
<msub>
<mi>S</mi>
<mi>k</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>S</mi>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>|</mo>
<mo><</mo>
<msub>
<mi>S</mi>
<mi>T</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>V</mi>
<mrow>
<mi>k</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>|</mo>
<msub>
<mi>V</mi>
<mi>k</mi>
</msub>
<mo>-</mo>
<msub>
<mover>
<mi>V</mi>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>|</mo>
<mo><</mo>
<msub>
<mi>V</mi>
<mi>T</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
式中是前一帧边界框中像素的HSV分量均值,HT、ST、VT是预设阈值,Hkc、Skc、Vkc是当前图像像素的分类值,属于ROI的为正例,反之为负例。
3.根据权利要求2所述的低成本目标视觉跟踪方法,其特征在于:提供一种HSV加权分类器防止出现阈值漂移,如式(2),
Akc=1,if W(HSV)<AT (2)
式中的是对HSV分量进行加权,α、β、γ是每个分量的加权系数且(α+β+γ=1),默认图像触发信号为静息,只有当Hkc、Skc、Vkc、Akc四个值都为1时,当前像素分类为ROI,即ROIkc=Hkc&Skc&Vkc&Akc。
4.根据权利要求1所述的低成本目标视觉跟踪方法,其特征在于:在步骤S3中,提供加权计算阶矩,如式(3);
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>M</mi>
<mn>10</mn>
</msub>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mi>x</mi>
</munder>
<mi>W</mi>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>M</mi>
<mn>01</mn>
</msub>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mi>y</mi>
</munder>
<mi>W</mi>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>M</mi>
<mn>00</mn>
</msub>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mi>x</mi>
</munder>
<munder>
<mo>&Sigma;</mo>
<mi>y</mi>
</munder>
<mi>W</mi>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
式中W(·)表示加权函数,I(·)表示像素的分类值,当前像素距离前帧边界框中心的距离越近,权值越大,边界框的位置和尺寸如式(4),
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>M</mi>
<mn>10</mn>
</msub>
<msub>
<mi>M</mi>
<mn>00</mn>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>y</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>M</mi>
<mn>01</mn>
</msub>
<msub>
<mi>M</mi>
<mn>00</mn>
</msub>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>s</mi>
<mo>=</mo>
<mn>2</mn>
<msqrt>
<mfrac>
<msub>
<mi>M</mi>
<mn>00</mn>
</msub>
<mn>256</mn>
</mfrac>
</msqrt>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
xc、yc是预测边界框的中心,s是边界框的尺寸。
5.一种低成本目标视觉跟踪系统,其特征在于:包括数据预处理模块、控制器模块、写入缓存模块、读出缓存模块、预估跟踪器模块、自适应跟踪器模块、数据处理模块和存储器数据更新控制模块,其中,所述控制器模块分别与所述数据处理模块、预估跟踪器模块、自适应跟踪器模块、读出缓存模块、存储器数据更新控制模块连接,所述数据处理模块分别与所述预估跟踪器模块、自适应跟踪器模块、存储器数据更新控制模块连接,所述自适应跟踪器模块与所述读出缓存模块连接,所述数据预处理模块的输出端与所述写入缓存模块的输入端连接。
6.根据权利要求5所述的低成本目标视觉跟踪系统,其特征在于:所述数据预处理模块包括数据拼接电路、YCbCr 4:2:2转YCbCr 4:4:4转换电路、YUV颜色空间转RGB颜色空间转换电路、RGB颜色空间转HSV颜色空间转换电路和二元分类器分类电路,其中,所述数据拼接电路的输出端与所述YCbCr 4:2:2转YCbCr 4:4:4转换电路的输入端连接,所述YCbCr 4:2:2转YCbCr 4:4:4转换电路的输出端与所述YUV颜色空间转RGB颜色空间转换电路的输入端连接,所述YUV颜色空间转RGB颜色空间转换电路的输出端与所述RGB颜色空间转HSV颜色空间转换电路的输入端连接,所述RGB颜色空间转HSV颜色空间转换电路的输出端与所述二元分类器分类电路的输入端连接。
7.根据权利要求5所述的低成本目标视觉跟踪系统,其特征在于:所述预估跟踪器模块包括模块初始化电路、Kalman预估器预测模块和Kalman预估器校准模块,其中,所述模块初始化电路的输出端分别与所述Kalman预估器预测模块、Kalman预估器校准模块连接,所述Kalman预估器校准模块的输出端与所述Kalman预估器预测模块连接,所述Kalman预估器预测模块的输出端与所述Kalman预估器校准模块连接。
8.根据权利要求5所述的低成本目标视觉跟踪系统,其特征在于:所述自适应跟踪器模块包括读控制模块、阶矩计算模块、目标位置数据处理模块、判定模块和自适应处理模块,其中,所述读控制模块的输出端与所述阶矩计算模块连接,所述阶矩计算模块的输出端与所述目标位置数据处理模块连接,所述目标位置数据处理模块的输出端与所述判定模块连接,所述判定模块的输出端分别与所述读控制模块、自适应处理模块连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710619073.2A CN107480602B (zh) | 2017-07-26 | 2017-07-26 | 一种低成本目标视觉跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710619073.2A CN107480602B (zh) | 2017-07-26 | 2017-07-26 | 一种低成本目标视觉跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107480602A true CN107480602A (zh) | 2017-12-15 |
CN107480602B CN107480602B (zh) | 2021-04-30 |
Family
ID=60597949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710619073.2A Active CN107480602B (zh) | 2017-07-26 | 2017-07-26 | 一种低成本目标视觉跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107480602B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112991366A (zh) * | 2021-02-18 | 2021-06-18 | 广州光锥元信息科技有限公司 | 对图像进行实时色度抠图的方法、装置及移动端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073851A (zh) * | 2011-01-13 | 2011-05-25 | 北京科技大学 | 一种城市交通事故自动识别方法和系统 |
CN102737385A (zh) * | 2012-04-24 | 2012-10-17 | 中山大学 | 一种基于camshift和卡尔曼滤波的视频目标跟踪方法 |
CN106096645A (zh) * | 2016-06-07 | 2016-11-09 | 上海瑞孚电子科技有限公司 | 抗多次遮挡和颜色干扰的识别跟踪方法及系统 |
CN106780542A (zh) * | 2016-12-29 | 2017-05-31 | 北京理工大学 | 一种基于嵌入卡尔曼滤波器的Camshift的机器鱼跟踪方法 |
-
2017
- 2017-07-26 CN CN201710619073.2A patent/CN107480602B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102073851A (zh) * | 2011-01-13 | 2011-05-25 | 北京科技大学 | 一种城市交通事故自动识别方法和系统 |
CN102737385A (zh) * | 2012-04-24 | 2012-10-17 | 中山大学 | 一种基于camshift和卡尔曼滤波的视频目标跟踪方法 |
CN106096645A (zh) * | 2016-06-07 | 2016-11-09 | 上海瑞孚电子科技有限公司 | 抗多次遮挡和颜色干扰的识别跟踪方法及系统 |
CN106780542A (zh) * | 2016-12-29 | 2017-05-31 | 北京理工大学 | 一种基于嵌入卡尔曼滤波器的Camshift的机器鱼跟踪方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112991366A (zh) * | 2021-02-18 | 2021-06-18 | 广州光锥元信息科技有限公司 | 对图像进行实时色度抠图的方法、装置及移动端 |
CN112991366B (zh) * | 2021-02-18 | 2024-05-03 | 广州光锥元信息科技有限公司 | 对图像进行实时色度抠图的方法、装置及移动端 |
Also Published As
Publication number | Publication date |
---|---|
CN107480602B (zh) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113286194A (zh) | 视频处理方法、装置、电子设备及可读存储介质 | |
CN106204522B (zh) | 对单个图像的联合深度估计和语义标注 | |
US7756296B2 (en) | Method for tracking objects in videos using forward and backward tracking | |
CN109753878B (zh) | 一种恶劣天气下的成像识别方法及系统 | |
CN108596923B (zh) | 三维数据的获取方法、装置以及电子设备 | |
US10254854B2 (en) | Tracker for cursor navigation | |
CN110111351B (zh) | 融合rgbd多模态信息的行人轮廓跟踪方法 | |
WO2021147113A1 (zh) | 一种平面语义类别的识别方法以及图像数据处理装置 | |
CN112312001B (zh) | 一种图像检测的方法、装置、设备和计算机存储介质 | |
Sajjanar et al. | Implementation of real time moving object detection and tracking on FPGA for video surveillance applications | |
CN108491857B (zh) | 一种视域重叠的多摄像机目标匹配方法 | |
WO2023109361A1 (zh) | 用于视频处理的方法、系统、设备、介质和产品 | |
WO2022194079A1 (zh) | 天空区域分割方法、装置、计算机设备和存储介质 | |
CN116486250A (zh) | 一种基于嵌入式的多路图像采集与处理方法及系统 | |
CN114708615A (zh) | 基于图像增强的低照度环境下人体检测方法、电子设备及储存介质 | |
CN107480602B (zh) | 一种低成本目标视觉跟踪方法及系统 | |
KR101806453B1 (ko) | 무인 비행체 충돌 회피를 위한 이동 객체 검출 장치 및 방법 | |
US10957049B2 (en) | Unsupervised image segmentation based on a background likelihood estimation | |
CN117372928A (zh) | 一种视频目标检测方法、装置及相关设备 | |
CN116665179A (zh) | 数据处理方法、装置、域控制器以及存储介质 | |
CN116403200A (zh) | 基于硬件加速的车牌实时识别系统 | |
Cho et al. | Increased performace of FPGA-based color classification system | |
WO2021164615A1 (en) | Motion blur robust image feature matching | |
CN110796680A (zh) | 一种基于相似模板更新的目标跟踪方法和装置 | |
CN116917954A (zh) | 图像检测方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |