CN1282132C - 基于运动目标检测的红外和可见光动态图像融合方法 - Google Patents
基于运动目标检测的红外和可见光动态图像融合方法 Download PDFInfo
- Publication number
- CN1282132C CN1282132C CN 200410018481 CN200410018481A CN1282132C CN 1282132 C CN1282132 C CN 1282132C CN 200410018481 CN200410018481 CN 200410018481 CN 200410018481 A CN200410018481 A CN 200410018481A CN 1282132 C CN1282132 C CN 1282132C
- Authority
- CN
- China
- Prior art keywords
- image
- target
- infrared
- coefficient
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
一种基于运动目标检测的红外和可见光动态图像融合方法,首先采用区域生长方法对红外图像进行分割,然后利用分割后各区域亮度与背景亮度的差异程度去判断每一个分割后的区域是否属于准目标区域,采用最近邻关联方法从所有检测到的准目标区域中找出真实的运动目标,最后采用基于不可分离小波框架变换的图像融合方法将红外序列图像中检测到的目标信息融合到可见光序列图像中。本发明利用了两种成像传感器所成图像的空间灰度信息及序列图像时间轴上的运动信息,融合后的序列图像既具有红外图像较好的目标指示特性,又具有可见光图像较高的清晰度,有利于提高监控人员对目标情景的感知能力。本发明可广泛应用于目标成像、安全监视等领域中。
Description
技术领域
本发明涉及一种基于运动目标检测的红外和可见光动态图像融合方法,是信息融合领域中的一项红外与可见光序列图像信息融合方法,在目标成像、安全监视等系统中均有广泛应用。
背景技术
图像融合技术是多传感器信息融合中可视信息的融合,它利用各种成像传感器不同的成像方式,为不同的影像提供互补信息,增加图像信息量,减少原始图像数据量,提高对环境的适应性,以获得更可靠、更准确的有用信息供观察或进一步处理。它是一门综合了传感器、信号处理、图像处理和人工智能等的新兴技术。近年来,图像融合已成为一种十分重要和有用的图像分析与计算机视觉技术。它在自动目标识别、计算机视觉、遥感、机器人、医学图像处理以及军事应用等领域有着广泛的应用前景。
可见光成像传感器和红外成像传感器是两种常用的传感器,工作机理不同,性能也各有差异。红外成像传感器与一般的可见光成像传感器不同,它采用红外探测器获取地面目标的红外辐射,记录的是目标自身的红外辐射信息。利用红外成像传感器对温度的敏感性,在军事上常用于探测和监视如人员、飞机、坦克、导弹发射和核爆炸等有热源目标。由于红外成像传感器是靠探测目标与背景间的热辐射差异来识别目标的,因而具有特殊的识别伪装能力。尽管红外成像传感器对热目标的探测性能较好(由目标与场景的温差及辐射率差决定),但其对场景的亮度变化不敏感,成像分辨率低,不利于人眼判读。可见光成像传感器只敏感于目标场景的反射,而与目标场景的热对比度无关。监控侦察的任务不仅是要发现、识别目标,而且应确定目标所在的准确位置,要求获取的图像具有较高的分辨率。可见光成像传感器分辨率较高,能够提供目标所在场景的细节信息。红外与可见光图像的融合将有利于综合红外图像较好的目标指示特性和可见光图像的清晰场景信息。目前常用的图像融合方法是基于多分辨率分析的图像融合方法,包括基于金字塔图像分解(Burt P.J,Kolczynski R.J.Enhancement withapplication to image fusion,Proc.4th Int.Conf.on Computer Vision,1993:173-182.)和基于小波变换图像分解的融合算法(Li H.,Manjunath B.S.,Mitra S.,Multisensorimage fusion using the wavelet transform,Graphical Models and Image Process,1995,57(3):235-245.)。这些传统的方法只能逐帧的对红外与可见光图像进行融合,在融合时并未将序列图像在时间轴上的运动信息考虑在内,融合效果较差。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于运动目标检测的红外和可见光动态图像融合方法,能够提高融合后的图像质量,达到理想的实用效果。
为实现上述目的,本发明提出了基于运动目标检测的红外与可见光动态图像融合方法,首先采用区域生长的方法对红外图像进行分割。红外序列图像中热目标特征较明显,目标区域亮度均值要比背景区域的亮度均值高很多。然后利用分割后各区域亮度与背景亮度的差异程度去判断每一个分割后的区域是否属于准目标区域(可能的目标区域)。准目标区域可能属于真实的运动目标,也可能是错检测的假目标。采用最近邻关联方法从所有检测到的准目标区域中找出真实的运动目标。最后采用基于不可分离小波框架变换的图像融合方法,将红外序列图像中检测到的目标信息融合到可见光序列图像中。
本发明的方法包括如下具体步骤:
1.对当前帧图像分割。采用基于区域生长的图像分割方法对当前帧红外图像进行分割。区域生长的一个关键是选择合适的灰度相似阈值,灰度相似阈值一般大致取为热目标区域亮度均值与周围背景亮度均值的差的0.3-0.6倍,目的是使图像中的目标能分割为单独的区域。
2.求取每一个分割后的区域属于准目标区域的信任程度。对当前帧红外图像分割后的结果,利用各分割后各区域亮度与背景亮度的差异程度去求取每一个分割后的区域属于准目标区域的信任程度。如果某区域亮度均值与背景的亮度均值相比越高,则该区域属于准目标区域的信任度越接近1,否则该区域属于准目标区域的信任度越接近0。
3.运动目标检测。结合以前各帧红外图像检测到运动目标,采用最近邻关联方法从所有检测到的准目标区域中找出当前帧红外图像中真实的运动目标。目标运动状态为包含水平方向位置、水平方向速度、垂直方向位置以及垂直方向速度的四维矢量。目标运动模型假设为匀速直线运动。目标量测为目标区域的质心坐标。从当前帧红外图像所有准目标区域质心坐标集合中求取最近邻量测,如果其落入跟踪门内,即将其认为是真实目标质心位置的量测值,其相应的区域即作为真实的目标区域。
4.采用小波变换对当前帧红外图像和可见光图像进行融合处理。首先对当前帧红外图像和可见光图像分别进行不可分离小波框架变换,然后对变换后的系数进行组合。如果当前帧红外图像中检测到目标,则在目标区域内组合后的系数取红外图像变换后的系数,其他区域内的组合系数取可见光图像变换后的系数。如果当前帧红外图像中没有检测到目标,则对于两图像变换后的最低频子带,组合后的系数取两图像变换后系数的均值,对于其它子带,组合后的系数取两图像变换后的系数绝对值大者。对组合后的系数进行不可分离小波框架逆变换即可得到当前帧红外与可见光图像融合后的结果。
5.循环对下一帧红外与可见光图像进行处理。重复以上步骤对下一帧红外与可见光图像进行处理,直到最后一帧待融合红外图像与可见光图像处理完毕。整个流程结束后将得到红外序列图像与可见光序列图像融合后的序列图像。
本发明的图像融合方法不仅利用了两种成像传感器所成图像的空间灰度信息,而且还利用了序列图像时间轴上的运动信息,融合后的序列图像既具有红外图像较好的目标指示特性,又具有可见光图像较高的清晰度,有利于提高监控人员对目标情景的感知能力。
附图说明
图1为基于运动目标检测的红外和可见光动态图像融合方法流程图。
图2为图像不可分离小波框架变换分解与重建结构示意图。
图3为待融合的红外图像序列。
图4为待融合的可见光图像序列。
图5为红外图像序列经图像分割后的结果。
图6为基于Laplacian金字塔的融合方法逐帧融合后的图像序列。
图7为基于小波变换的融合方法逐帧融合后的图像序列。
图8为本发明动态图像方法融合后的图像序列。
具体实施方式
为了更好地理解本发明的技术方案,以下结合附图对本发明的实施方式作进一步描述。基于运动目标检测的红外和可见光动态图像融合方法整体流程如图1,本实施例中待融合的红外图像序列如图3,待融合的可见光图像序列如图4。
1.对当前帧图像分割
采用基于区域生长的图像分割方法对当前帧红外图像进行分割,区域生长的一个关键是选择合适的灰度相似阈值,灰度相似阈值一般大致取为热目标区域亮度均值与周围背景亮度均值的差的0.3-0.6倍,目的是使图像中的目标能分割为单独的区域。图3中待融合的红外图像序列经逐帧分割后的结果如图5所示,其中不同颜色表示不同区域。
2.求取每一个分割后的区域属于准目标区域的信任程度红外序列图像中热目标特征较明显,目标区域亮度均值要比背景区域的亮度均值高很多。可以利用亮度信息去判断每一个分割后的区域是否属于准目标区域。对于每一个分割后的区域,定义该区域属于准目标区域的信任度为:
其中,μf与μb分别是第i个区域的灰度均值和背景区域(第i个区域以外的区域)的灰度均值,λ1与λ2为控制高斯函数方差的常数,μ1与μ2为控制高斯函数均值的常数。如果某区域亮度均值与背景的亮度均值相比越高,则该区域属于准目标区域的信任度越接近1,否则该区域属于准目标区域的信任度越接近0。选择属于准目标区域的信任度高的区域作为准目标区域。
3.运动目标检测
准目标区域可能属于真实的运动目标,也可能是错检测的假目标。采用最近邻关联方法可从所有检测到的准目标区域中找出真实的运动目标。在序列图像中目标的运动速度一般都比较慢,可假设目标处于匀速直线运动状态。令k时刻(帧)的目标状态向量表示为
其中(x1(k),x2(k))表示目标质心的坐标,
表示目标在垂直方向与水平方向上的速度,k时刻的量测向量表示为z(k)。令Z(k)表示k时刻所有待检验的目标量测值的集合(准目标区域质心坐标的集合),则k时刻的最近邻量测值为:
其中
与S(k)下面给出。
设T为图像采样周期,根据匀速直线运动模型,目标状态方程可表示为:
x(k)=F·x(k-1)+G·v(k-1), (3)
目标量测方程可表示为:
z(k)=H·x(k)+w(k), (4)
其中状态转移矩阵
输入矩阵
观测矩阵 v(k-1)与w(k)分别为状态噪声和量测噪声,且为互不相关的零均值高斯白噪声向量序列,其协方差矩阵分别为Q(k-1)和R(k)。根据运动目标跟踪理论:
P(k|k-1)=F·P(k-1|k-1)·F′+G·Q(k-1)·G′, (7)
定义椭圆跟踪门为Rγ={z:D(z)≤γ},如果有最近邻量测落入跟踪门内,则:
P(k|k)=P(k|k-1)-W(k)·S(k)·W(k)′, (9)
其中,
S(k)=H·P(k|k-1)·H′+R(k), (11)
W(k)=P(k|k-1)·H′·S(k)-1; (12)
如果没有最近邻量测落入跟踪门内,则:
P(k|k)=P(k|k-1)。 (14)
落入跟踪门内的量测z*(k)即认为是真实目标质心位置的量测值,其相应的区域即作为真实的目标区域。
4.基于不可分离小波框架图像变换的图像融合
运动目标检测后的图像融合问题就成了如何将每帧红外图像中的运动目标融合到相应的可见光图像帧中。可以将每帧红外图像中的运动目标直接剪切下来放入相应可见光图像帧中,但这样产生的融合图像拼凑痕迹较明显。本发明中采用基于不可分离小波框架变换的图像融合方法较好的解决了这一问题。不可分离小波框架变换分解与重建过程如图2。图像分解后的系数表示如下:
其中H0,G0是二维的原型分析滤波器,
为采样矩阵,[H0]↑Di是低
通滤波器H0经过升采样后的滤波器,[G0]↑Di是高通滤波器G0经过升采样后的滤波器,f0(K)=f(K)为原始图像,K∈Z2为像素的坐标位置,N是图像分解的层数。在图2中H1,G1是二维原型综合滤波器。
图像f(K)经过N层不可分离小波框架变换分解后将产生N个高通子带{gi(K)|i=1,2,...,N}以及一个低通子带fN(K),每一个子带的尺寸与源图像的尺寸相同。使用gi A(K)与fN A(K),gi B(K)与fN B(K)表示待融合的当前帧红外图像A与可见光图像B分别经不可分离小波框架变换分解后的系数,使用gi F(K)与fN F(K)表示组合后的不可分离小波框架变换系数。如果当前待融合红外图像帧中检测到运动目标,则:
如果当前帧红外图像中没有检测到运动目标,则:
对于组合后的不可分离小波框架变换系数进行逆变换即可得到当前帧红外与可见光图像融合后的结果。
5.循环对下一帧红外与可见光图像进行处理
重复以上步骤对下一帧红外与可见光图像进行处理,直到最后一帧待红外图像与可见光图像处理完毕。整个流程结束后将得到红外序列图像与可见光序列图像融合后的序列图像。
本方法与其它融合方法的性能评价:图6是采用基于Laplacian金字塔变换的图像融合方法对各帧红外图像和可见光图像逐帧融合后的结果,图7是采用基于小波变换的图像融合方法对各帧红外图像和可见光图像逐帧融合后的结果,图8是采用本发明的动态图像融合算法得到的融合图像序列。客观评价采用常用的熵和互信息两种评价指标,各融合算法的性能评价见表1。熵(H)用于衡量融合图像的整体信息量,数值越大表示融合效果越好。互信息(MI)可用来衡量融合图像从源图像中继承信息的多少,互信息越大表示融合效果越好。
表1.图像融合实验性能评价
本发明方法 | 金字塔变换融合方法 | 离散小波变换融合方法 | ||
第1帧 | H | 7.1168 | 6.6867 | 6.5913 |
MI | 4.1208 | 1.5117 | 1.4004 | |
第2帧 | H | 7.0900 | 6.6616 | 6.5797 |
MI | 4.3277 | 1.5037 | 1.3841 | |
第3帧 | H | 7.1571 | 6.7181 | 6.6426 |
MI | 4.3807 | 1.5134 | 1.4034 | |
第4帧 | H | 7.1655 | 6.7114 | 6.6381 |
MI | 4.3677 | 1.5144 | 1.3941 | |
第5帧 | H | 7.1479 | 6.7063 | 6.6318 |
Claims (1)
1、一种基于运动目标检测的红外和可见光动态图像融合方法,其特征在于包括如下具体步骤:
1)采用基于区域生长的图像分割方法对当前帧红外图像进行分割,区域生长选择的灰度相似阈值取为热目标区域亮度均值与周围背景亮度均值的差的0.3-0.6倍;
2)利用分割后各区域亮度与背景亮度的差异程度,求取每一个分割后的区域属于准目标区域的信任程度,如果某区域亮度均值与背景的亮度均值相比越高,则该区域属于准目标区域的信任度越接近1,否则该区域属于准目标区域的信任度越接近0;
3)结合以前各帧红外图像检测到运动目标,采用最近邻关联方法从所有检测到的准目标区域中找出当前帧红外图像中真实的运动目标;目标运动状态为包含水平方向位置、水平方向速度、垂直方向位置以及垂直方向速度的四维矢量,目标运动模型假设为匀速直线运动,目标量测为目标区域的质心坐标;从当前帧红外图像所有准目标区域质心坐标集合中求取最近邻量测,如果其落入跟踪门内,即将其认为是真实目标质心位置的量测值,其相应的区域即作为真实的目标区域;
4)对当前帧红外图像和可见光图像分别进行不可分离小波框架变换,然后对变换后的系数进行组合,如果当前帧红外图像中检测到目标,则在目标区域内组合后的系数取红外图像变换后的系数,其他区域内的组合系数取可见光图像变换后的系数,如果当前帧红外图像中没有检测到目标,则对于两图像变换后的最低频子带,组合后的系数取两图像变换后系数的均值,对于其它子带,组合后的系数取两图像变换后的系数绝对值大者,对组合后的系数进行不可分离小波框架逆变换,得到当前帧红外与可见光图像融合后的结果;
5)循环对下一帧红外与可见光图像进行处理,直到最后一帧待融合红外图像与可见光图像处理完毕,得到红外序列图像与可见光序列图像融合后的序列图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200410018481 CN1282132C (zh) | 2004-05-20 | 2004-05-20 | 基于运动目标检测的红外和可见光动态图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200410018481 CN1282132C (zh) | 2004-05-20 | 2004-05-20 | 基于运动目标检测的红外和可见光动态图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1581231A CN1581231A (zh) | 2005-02-16 |
CN1282132C true CN1282132C (zh) | 2006-10-25 |
Family
ID=34581802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 200410018481 Expired - Fee Related CN1282132C (zh) | 2004-05-20 | 2004-05-20 | 基于运动目标检测的红外和可见光动态图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1282132C (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006333132A (ja) * | 2005-05-26 | 2006-12-07 | Sony Corp | 撮像装置及び撮像方法、プログラム、プログラム記録媒体並びに撮像システム |
CN100395777C (zh) * | 2005-12-20 | 2008-06-18 | 上海电力学院 | 基于最优小波滤波器组的多传感器图像融合方法 |
CN101021944B (zh) * | 2007-03-14 | 2010-05-26 | 哈尔滨工业大学 | 基于小波函数的多尺度显微图像分割处理方法 |
CN101399969B (zh) * | 2007-09-28 | 2012-09-05 | 三星电子株式会社 | 基于运动相机的运动目标检测与跟踪的系统、设备和方法 |
CN101409825B (zh) * | 2007-10-10 | 2011-04-13 | 中国科学院自动化研究所 | 基于信息融合的夜间视觉监控方法 |
CN101252677B (zh) * | 2007-10-19 | 2010-05-19 | 西安交通大学 | 一种基于多光谱图像传感器的目标跟踪方法 |
CN101216891B (zh) * | 2008-01-10 | 2011-05-18 | 北京中星微电子有限公司 | 一种彩色图像分割方法 |
JP2010011016A (ja) * | 2008-06-26 | 2010-01-14 | Sony Corp | 追尾点検出装置および方法、プログラム、並びに記録媒体 |
CN100587718C (zh) * | 2008-08-22 | 2010-02-03 | 北京矿冶研究总院 | 基于规则的区域生长图像分割方法 |
CN101667294B (zh) * | 2009-09-10 | 2011-10-05 | 天津工业大学 | 目标检测与跟踪装置 |
CN101794442B (zh) * | 2010-01-25 | 2011-11-09 | 哈尔滨工业大学 | 一种从可见光图像中提取光照不敏感信息的标定方法 |
JP5603676B2 (ja) * | 2010-06-29 | 2014-10-08 | オリンパス株式会社 | 画像処理装置及びプログラム |
CN102194249B (zh) * | 2011-05-19 | 2013-12-25 | 北京航空航天大学 | 一种利用红外线和可见光相结合的水流建模数据捕获装置 |
CN102305664A (zh) * | 2011-05-19 | 2012-01-04 | 中国农业大学 | 热像测温和故障定位巡视系统 |
CN102496016B (zh) * | 2011-11-22 | 2013-07-24 | 武汉大学 | 一种基于时空协同框架的红外目标检测方法 |
CN102609945B (zh) * | 2012-02-09 | 2015-04-15 | 西北工业大学 | 可见光和热红外图像序列自动配准方法 |
CN104657959A (zh) * | 2013-11-25 | 2015-05-27 | 北京环境特性研究所 | 一种基于小波变换抑制的海面亮带的方法 |
CN105184826B (zh) * | 2015-05-13 | 2018-04-10 | 京东方科技集团股份有限公司 | 一种判别图像亮度背景的方法、装置和显示装置 |
CN112995617A (zh) | 2016-06-03 | 2021-06-18 | 麦克赛尔株式会社 | 摄像装置和摄像系统 |
CN106417104A (zh) * | 2016-08-31 | 2017-02-22 | 北京农业信息技术研究中心 | 养殖鱼类游动方向测定系统和方法 |
CN106842350B (zh) * | 2016-12-26 | 2020-04-10 | 首都师范大学 | 同平台不同分辨率传感器联合动目标检测系统及检测方法 |
CN107369164B (zh) * | 2017-06-20 | 2020-05-22 | 成都中昊英孚科技有限公司 | 一种红外弱小目标的跟踪方法 |
CN108665487B (zh) * | 2017-10-17 | 2022-12-13 | 国网河南省电力公司郑州供电公司 | 基于红外和可见光融合的变电站作业对象和目标定位方法 |
CN109447011B (zh) * | 2018-11-06 | 2020-07-03 | 沈阳天眼智云信息科技有限公司 | 红外对蒸汽管道泄露的实时监控方法 |
CN109544494B (zh) * | 2018-11-12 | 2021-08-17 | 北京航空航天大学 | 一种人体安检中被动毫米波图像与可见光图像的融合方法 |
CN111028189B (zh) * | 2019-12-09 | 2023-06-27 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN112200840B (zh) * | 2020-10-27 | 2021-05-11 | 北京深睿博联科技有限责任公司 | 一种可见光和红外图像组合中的运动物体检测系统 |
CN114037633B (zh) * | 2021-11-18 | 2022-07-15 | 南京智谱科技有限公司 | 一种红外图像处理的方法及装置 |
-
2004
- 2004-05-20 CN CN 200410018481 patent/CN1282132C/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN1581231A (zh) | 2005-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1282132C (zh) | 基于运动目标检测的红外和可见光动态图像融合方法 | |
CN109804232B (zh) | 一种基于红外热像图分析的沥青路面裂缝发育程度检测方法 | |
CN108830819B (zh) | 一种深度图像与红外图像的图像融合方法及装置 | |
CN1273937C (zh) | 红外与可见光图像融合方法 | |
CN109035188A (zh) | 一种基于目标特征驱动的智能图像融合方法 | |
CN105139367A (zh) | 一种基于非下采样剪切波的可见光偏振图像融合方法 | |
CN103593670A (zh) | 一种基于在线序列极限学习机的铜板带表面缺陷检测方法 | |
Wang et al. | Low-illumination image enhancement for night-time UAV pedestrian detection | |
CN107870181A (zh) | 一种复合材料脱粘缺陷的后期识别方法 | |
CN104182992B (zh) | 一种基于全景视觉的海上弱小目标检测方法 | |
CN105069769A (zh) | 一种微光与红外夜视图像融合方法 | |
CN112949380B (zh) | 一种基于激光雷达点云数据的智能水下目标识别系统 | |
CN1251145C (zh) | 综合边缘和纹理信息的金字塔图像融合方法 | |
CN1873693A (zh) | 基于Contourlet变换和改进型脉冲耦合神经网络的图像融合方法 | |
Kim et al. | Building detection in high resolution remotely sensed images based on automatic histogram-based fuzzy c-means algorithm | |
CN108038856B (zh) | 基于改进多尺度分形增强的红外小目标检测方法 | |
CN109635717A (zh) | 一种基于深度学习的矿用行人检测方法 | |
Pandelea et al. | Image processing using artificial neural networks | |
Jia et al. | Research on the decomposition and fusion method for the infrared and visible images based on the guided image filtering and Gaussian filter | |
CN110751667A (zh) | 基于人类视觉系统的复杂背景下红外弱小目标检测方法 | |
CN105183752B (zh) | 关联查询红外视频图像特定内容的方法 | |
CN112734683B (zh) | 基于目标增强的多尺度sar与红外图像融合方法 | |
Fang et al. | Images crack detection technology based on improved K-means algorithm | |
CN109815784A (zh) | 一种基于红外热像仪的智能分类方法、系统及存储介质 | |
CN104851102A (zh) | 一种基于人类视觉系统的红外小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20061025 |