CN103268498A - 一种感兴趣区域模糊图像语义理解的方法 - Google Patents

一种感兴趣区域模糊图像语义理解的方法 Download PDF

Info

Publication number
CN103268498A
CN103268498A CN2013101637737A CN201310163773A CN103268498A CN 103268498 A CN103268498 A CN 103268498A CN 2013101637737 A CN2013101637737 A CN 2013101637737A CN 201310163773 A CN201310163773 A CN 201310163773A CN 103268498 A CN103268498 A CN 103268498A
Authority
CN
China
Prior art keywords
area
interest
support
value
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101637737A
Other languages
English (en)
Other versions
CN103268498B (zh
Inventor
吴青娥
郑晓婉
孙冬
顾冬华
韩振宇
牛莹
许爽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou University of Light Industry
Original Assignee
Zhengzhou University of Light Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University of Light Industry filed Critical Zhengzhou University of Light Industry
Priority to CN201310163773.7A priority Critical patent/CN103268498B/zh
Publication of CN103268498A publication Critical patent/CN103268498A/zh
Application granted granted Critical
Publication of CN103268498B publication Critical patent/CN103268498B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种感兴趣区域模糊图像语义理解的方法,在不确定因素分类与影响分析的基础上,构建去模糊处理、修补处理、动态组合处理的三级处理模式框架,对模糊信号进行处理;定义目标感兴趣区域的支持度,由目标在感兴趣区域的分布规律计算支持度和最小支持度、最大支持度,确定感兴趣区域;提取感兴趣区域目标的多维参数;根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解;该方法依据对目标测量的不确定性信息进行推理,以达到目标身份识别和属性判决的目的,对不确定性理论的发展提供了有价值的参考,为不同类型模糊信号处理提供了思路,具有重要的理论意义和实用价值。

Description

一种感兴趣区域模糊图像语义理解的方法
技术领域
本发明属于图像信息处理技术领域,尤其涉及一种感兴趣区域模糊图像语义理解的方法。
背景技术
图像理解能为军事、公安、金融等部门提供准确、快速的目标识别方法。如何完成模糊图像的场景语义理解,是现在许多部门棘手且亟待解决的难题。但国内外在这方面的研究尚都处于初级阶段。如何对图像进行科学高效的模糊信号处理,是进行模糊图像准确理解的必由之路。
在高度信息化的现代社会,目标识别和人们的身份鉴别已经渗透到日常生活的每一个方面。由于交通、通讯、军事等方面保密的需要,网络技术的飞速发展,以及各信号环境的日益复杂,使得构成特征向量的特征参数具有一定的模糊性。这样使得目标或身份鉴别的难度和重要性也越来越突出。金融、安全、网络、电子商务等无一不需要可靠的目标或身份鉴别。传统的利用密码等物体或身份鉴别的方法具有易遗忘、易假冒等缺点,已不符合现代数字社会的需求。
近年来随着发射的应用卫星日益增多,以及世界各国对周边地区环境监视的需求日益增长,对监视画面意图的准确领会的需要等,这些问题已成为图像处理领域的一个热点问题,亟待模糊图像不确定性问题的处理、目标感兴趣区域自动特征提取、识别和理解技术的开展。
对不确定性问题的处理,国内外发展了各种数学理论工具和方法,如模糊推理、粗糙集理论、概率论等。这些理论和方法均是为了处理特定的不确定性信息而发展起来的,且大部分都是单一的不确定性信息处理技术。但对模糊图像中的不确定性问题的研究几乎是一空白,这就需要发展新的解决此类问题的不确定性处理理论、方法和算法。
当收集的海量的图像数据应用于实际目标的监测时,传统的人工图像判读方式已经不能满足信息获取的实际需求,迫切需要开展目标特征自动提取的研究。但目前对模糊图像目标的多维参数提取问题的处理缺乏解决方法,这也是现在许多部门棘手且亟待解决的问题。由此,多维参数提取工作已变得越来越重要也越来越困难。本发明将对模糊图像目标ROI多维参数特征提取开展研究。
由于图像采集系统、不同的物理现象如光照不能完全均匀分布等多方面的原因,使获得的图像边缘强度不同,而且在实际场合中,图像数据往往还被噪声所污染,同时景物特性混在一起又会使随后的解释变得非常困难。
发明内容
本发明提供了一种感兴趣区域模糊图像语义理解的方法,旨在解决随着网络技术的飞速发展以及各信号环境的日益复杂,使得构成特征向量的特征参数具有一定的模糊性,使得目标或身份鉴别的难度和重要性也越来越突出,同时传统的利用密码等物体或身份鉴别的方法易遗忘、易假冒,已不符合现代数字社会需求的问题。
本发明的目的在于提供一种感兴趣区域模糊图像语义理解的方法,该方法包括以下步骤:
步骤一,针对模糊图像中的各种模糊信号的模糊性、不完备性和场景语义理解,在不确定因素分类与影响分析的基础上,构建去模糊处理、修补处理、动态组合处理的三级处理模式框架,对模糊信号进行处理;
步骤二,定义目标感兴趣区域的支持度,由目标在感兴趣区域的分布规律计算支持度和最小支持度、最大支持度,确定感兴趣区域;
步骤三,提取感兴趣区域目标的多维参数;
步骤四,根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解。
进一步,在步骤一中,针对模糊图像中的各种模糊信号的模糊性、不完备性和场景语义理解,在不确定因素分类与影响分析的基础上,构建去模糊处理、修补处理、动态组合处理的三级处理模式框架,对模糊信号进行处理时,包括:
①模糊图像的去模糊处理方法
图像的模糊成度用x来表示,用隶属度来度量,隶属度的计算可通过专家给出,也可用隶属函数计算得到;
(1)当隶属度是取值在区间[0,1]中的任何变量值时,也就是当隶属度是无限多个任意值时,采取分割区间[0,1],使用具有反馈神经元数目是N的网络训练,既然反馈神经元的数目是N,则划分这N个区间[0,1],把每个区间[0,1]分割成n(n>1)个相等的子区间,则分这状态空间成nN个超立方体,并且能获得区间端点值θs,这里s=0,1,…,n,如果θi<x≤θi+1,i=0,1,…,n-1,则设
Figure BSA00000889648500031
这里 θ i = i n , 0 ≤ i ≤ n - 1 , θn=1;
(2)根据统计分布,当隶属度集V的值是分别接近于有限个确定的值{θ0,θ1…,θm-1}时,即如果|x-θi|<ε,i=0,1,…,m-1,x∈V,设D(x)=θi,这里ε是任意小的正数且根据需要来确定,即当整个串由网络处理后,神经元的最终值x接近于θi
②修补处理
对一些被割裂、污损等不完整的图像,利用灰度相近性修补灰度值,对灰度状态进行迭代,具体的迭代形式为:
Figure BSA00000889648500041
其中,
Figure BSA00000889648500042
灰度状态的转移矩阵,为k时刻的灰度状态估计量,
Figure BSA00000889648500044
状态一步预测值,ρk+1为灰度的量测值,Kk+1是灰度状态增益量,h(·)为灰度的非线性量测函数,Pk+1为灰度状态估计均方误差,Pk+1|k是一步预测均方误差,Γk+1|k为灰度噪声的转移矩阵,Qk和Rk+1分别为灰度噪声和测量噪声的正定协方差矩阵, H k + 1 = h X ( X ^ k + 1 | k ) = [ ▿ X h ( X k + 1 ) ] T | X = X ^ ( k + 1 | k ) 是向量h的雅可比矩阵,具体的修补如下:
一种方法是:附加噪声,通过利用灰度状态噪声协方差Q*(k)使Q*(k)>Q(k)可实现这一点;
第二种方法是:在每一采样时间,用标量加权因子乘灰度状态协方差,即令然后在协方差更新方法中使用P*(k+1|k);
③动态组合
设fi(t)和Ξ(t)分别表示t时刻第i个像素灰度值的模糊度及模糊分布,
Figure BSA00000889648500048
和Ξl表示到l时刻为止由第i个像素灰度值的积累融合得到的模糊度及模糊分布,这里,l=1,2,…,t,即 Ξ ( t ) = Σ i ∈ T f i ( t ) / o i Ξ t - 1 = Σ i ∈ T f i ( t - 1 ) / o i , 这里oi是像素,T是时间集,将t-1时刻的累积融合模糊分布与t时刻的测量模糊分布进行融合,可得第i个像素到t时刻为止的灰度值累积融合模糊分布Ξt其中, f i ( t ) = S [ f i ( t - 1 ) , f i ( t ) ] , S是模糊综合函数,通常取下式: S ( M i ( t ) ) = ( 1 t Σ l = 1 t f i q ( l ) ) 1 q , q>0,这里设Mi(t)=(fi(1),fi(2),…,fi(t))′。
进一步,在步骤二中,定义目标感兴趣区域的支持度,由目标在感兴趣区域的分布规律计算支持度和最小支持度、最大支持度,确定感兴趣区域时,具体实现方法为:
目标集{A,B}的支持度是由同时包含A和B的事例总数组成的,分三种情况,定义如下:
①统计分布
定义{A,B}的支持度是:一个单位时间内A和B同时出现的次数(频率),即support({A,B})=arisen times(A,B)/time;
②模糊分布
由对抽出来的样本图像进行试验发现,有些目标在感兴趣区域出现的情况本身是模棱两可的,所以根据专家经验或试验数据,对A和B同时出现的支持度定义为在区间[0,1]内的值,即对出现情况打分或定义一个隶属函数来定义{A,B}的支持度;
③不完整分布
如果图像感兴趣区域目标信息不完整,就先找出感兴趣区域最大可能的支持区和最小可能的支持区,给定感兴趣区域的一个划分关系R,按照关系R,把感兴趣区域分成若干子区,设用U表示感兴趣区域,用U/R表示子区,对感兴趣区域中的事例{A,B},先定义它的最大可能的支持区和最小可能的支持区如下:
{ A , B } L = ∪ Y ∈ U / R , Y ⊆ { A , B } Y
{ A , B } U = ∪ Y ∈ U / R , Y ∩ { A , B } ≠ φ Y
定义{A,B}的支持度为:
support({A,B})=Number of arisen{A,B}L/Number of arisen{A,B}U
最小支持度Minimum_support和最大支持度Maximum_support分别是一个阈值参数,该参数表示数据集的最低和最高支持度,用来度量目标集{A,B}实际和可能出现的频率阈值的事例数目,一般用百分数表示。
进一步,在步骤三中,提取感兴趣区域目标的多维参数的实现方法为:
在感兴趣区域中选取一个兴趣点或特征点,称为核心点,对感兴趣区域中的各点与核心点的灰度值比较,若感兴趣区域内的像素灰度与感兴趣区域核心的像素灰度差值小于给定的门限,则认为该点与核心点是同值或相似的,由满足这样条件的像素组成的区域称为特征区;
将感兴趣区域中的各点与核心点的灰度值用下面的相似比较函数进行比较:
C ( r r 0 , r r ) = 1 , | I ( r r ) - I ( r r 0 ) | ≤ g 0 , | I ( r r ) - I ( r r 0 ) | > g - - - ( 1 )
式中:g为灰度差门限,是确定相似程度的阈值,g的选取要根据图像中目标与背景的对比程度来确定;
Figure BSA00000889648500062
是当前核心点的位置;是圆形感兴趣区域内其他任一点的位置;
Figure BSA00000889648500065
分别是核心与感兴趣区域中其他点的灰度值;
Figure BSA00000889648500066
是感兴趣区域内属于特征区的像素的判别函数,为输出;
特征区的大小或特征参数的数目可由下式计算:
Figure BSA00000889648500067
式中
Figure BSA00000889648500068
是以
Figure BSA00000889648500069
为圆心的感兴趣区域;
根据试验分析可知在实际噪声图像中如果核心点在边缘附近,n的值一般不会大于3nmax/4,用下式来产生边缘初始响应:
R ( r r 0 ) = n 0 - n ( r r 0 ) ifn ( r r 0 ) < n 0 0 otherwise - - - ( 3 )
式中,n0是门限;
Figure BSA000008896485000611
是响应函数;
在噪声存在的情况下,计算
Figure BSA000008896485000612
的均值是接近于0.75,因此定义阈值n0=3nmax/4,nmax
Figure BSA000008896485000613
听能达到的最大值;
由式(3)得到的边缘初始响应值大小符合“特征区越小,初始边缘响应就越大”;
之后确定边缘方向,
Figure BSA00000889648500071
Figure BSA00000889648500072
之比确定了边缘的方向,
Figure BSA00000889648500073
的符号用于确定对角边缘梯度方向的正负,这里
Figure BSA00000889648500074
进一步,在步骤四中,根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解时,在提取出目标多维特征后,用模糊隶属函数或标准模板进行模糊匹配、识别,将未知多维参数的特征向量同已经训练好的已知类别的多维参数特征向量相比较,当且仅当它的特征向量与第i0类特征向量之间的相似度为最大时,按最大隶属原则判决待识别多维参数属于第i0类;这里选用正态型隶属度函数 &mu; X ij m ( u ) = e - ( u - &theta; ij m ) 2 2 &sigma; ij 2 &mu; X ~ j ( u ) = e - ( u - x j ) 2 2 &sigma; j 2 , 这里u是相应于
Figure BSA00000889648500077
的模糊因素,m=1,…,nij表示已知第i类目标在第j个参数方向上的第m个取值模糊数,
Figure BSA00000889648500079
为均值,
Figure BSA000008896485000710
表示被识别目标在第j个参数方向上的模糊观测值,xj为均值,σij和σj分别为
Figure BSA000008896485000711
Figure BSA000008896485000712
的展度,
Figure BSA000008896485000713
分别表示
Figure BSA000008896485000715
Figure BSA000008896485000716
的隶属度函数,那么,可计算被识别图像目标与已知第i类图像目标在第j个参数方向上的第m个取值相似度为
Figure BSA000008896485000717
由模糊析取命题推理得出
Figure BSA000008896485000718
这里
Figure BSA000008896485000719
于是,可得被识别模糊数向量与第i类目标的相似性向量为Di=[di1,di2,…,dik]T,若
Figure BSA000008896485000720
使得
Figure BSA000008896485000721
则按最大隶属原则判断待识别目标属于第i0类。
进一步,在步骤四中,根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解时,先定义目标间关联的重要度,定义目标集{A,B}的重要度是目标A和B同时呈现的概率除以A的几率与B的几率之积,即Importance({A,B})=odds(A,B)/(odds(A)*odds(B));
这里odds(A,B)=support({A,B})/Maximum_support({A}U{not A}),
odds(A)=support({A})/Maximum_support({A}U{not A}),
odds(B)=support({B})/Maximum_support({B}U{not B});
如果Importance=1,则A和B是独立的项,它表示A和B的出现相互不影响,如果Importance<1,则A和B是负相关的,这表示在ROI中如果A呈现,则目标B不太可能出现;如果Importance>1,则A和B是正相关的,这表示在ROI中如果A呈现,则目标B可能也出现;
场景语义理解是对意图的判断,对两种意图的判断是由两个阈值和ROI的重要度决定的,设阈值0<β<α,一幅图像的ROI由若干个目标组成,用X表示;如果Importance(X)>α,则X肯定是意图1,如果β≤Importance(X)≤α,则X可能是意图1也可能是意图2,如果Importance(X)<β,则X肯定是意图2;阈值α和β通常由专家经验或试验数据给定,对多种意图的判断是由多个阈值和ROI的重要度决定的,再按两种阈值的方法进行两两组合,依次进行判断。
本发明提供的感兴趣区域模糊图像语义理解的方法,针对模糊图像中的各种模糊信号的模糊性、不完备性和场景语义理解,在不确定因素分类与影响分析的基础上,构建去模糊处理、修补处理、动态组合处理的三级处理模式框架,对模糊信号进行处理;定义目标感兴趣区域的支持度,由目标在感兴趣区域的分布规律计算支持度和最小支持度、最大支持度,确定感兴趣区域;提取感兴趣区域目标的多维参数;根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解;该方法依据对目标测量的不确定性信息进行推理,以达到目标身份识别和属性判决的目的,对不确定性理论的进一步发展提供了有价值的参考,为不同类型的模糊信号处理提供思路方法,具有重要的理论意义和实用价值。
附图说明
图1是本发明实施例提供的感兴趣区域模糊图像语义理解的方法的实现流程图;
图2是本发明实施例提供的选取支持度公式,计算支持度和最小、最大支持度,确定感兴趣区域的示意图,其中,1为最大支持度区,2为最小支持度区,3为感兴趣区域;
图3是本发明实施例提供的ROI自动理解的系统模型。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定发明。
图1示出了本发明实施例提供的感兴趣区域模糊图像语义理解的方法的实现流程。
该方法包括以下步骤:
步骤S101,针对模糊图像中的各种模糊信号的模糊性、不完备性和场景语义理解,在不确定因素分类与影响分析的基础上,构建去模糊处理、修补处理、动态组合处理的三级处理模式框架,对模糊信号进行处理;
步骤S102,定义目标感兴趣区域的支持度,由目标在感兴趣区域的分布规律计算支持度和最小支持度、最大支持度,确定感兴趣区域;
步骤S103,提取感兴趣区域目标的多维参数;
步骤S104,根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解。
在本发明实施例中,在步骤S101中,针对模糊图像中的各种模糊信号的模糊性、不完备性和场景语义理解,在不确定因素分类与影响分析的基础上,构建去模糊处理、修补处理、动态组合处理的三级处理模式框架,对模糊信号进行处理时,包括:
①模糊图像的去模糊处理方法
图像的模糊成度用x来表示,用隶属度来度量,隶属度的计算可通过专家给出,也可用隶属函数计算得到;
(1)当隶属度是取值在区间[0,1]中的任何变量值时,也就是当隶属度是无限多个任意值时,采取分割区间[0,1],使用具有反馈神经元数目是N的网络训练,既然反馈神经元的数目是N,则划分这N个区间[0,1],把每个区间[0,1]分割成n(n>1)个相等的子区间,则分这状态空间成nN个超立方体,并且能获得区间端点值θs,这里s=0,1,…,,n,如果θi<x≤θi+1,i=0,1,…,n-1,则设 D ( x ) = &theta; i + &theta; i + 1 2 , 这里 &theta; i = i n , 0 &le; i &le; n - 1 , θn=1;
(2)根据统计分布,当隶属度集V的值是分别接近于有限个确定的值{θ0,θ1…,θm-1}时,即如果|x-θi|<ε,i=0,1,…,m-1,x∈V,设D(x)=θi,这里ε是任意小的正数且根据需要来确定,即当整个串由网络处理后,神经元的最终值x接近于θi
②修补处理
对一些被割裂、污损等不完整的图像,利用灰度相近性修补灰度值,对灰度状态进行迭代,具体的迭代形式为:
Figure BSA00000889648500103
其中,
Figure BSA00000889648500106
灰度状态的转移矩阵,
Figure BSA00000889648500104
为k时刻的灰度状态估计量,
Figure BSA00000889648500105
状态一步预测值,ρk+1为灰度的量测值,Kk+1是灰度状态增益量,h(·)为灰度的非线性量测函数,Pk+1为灰度状态估计均方误差,Pk+1|k是一步预测均方误差,Γk+1|k为灰度噪声的转移矩阵,Qk和Rk+1分别为灰度噪声和测量噪声的正定协方差矩阵, H k + 1 = h X ( X ^ k + 1 | k ) = [ &dtri; X h ( X k + 1 ) ] T | X = X ^ ( k + 1 | k ) 是向量h的雅可比矩阵,具体的修补如下:
一种方法是:附加噪声,通过利用灰度状态噪声协方差Q*(k)使Q*(k)>Q(k)可实现这一点;
第二种方法是:在每一采样时间,用标量加权因子乘灰度状态协方差,即令
Figure BSA00000889648500113
然后在协方差更新方法中使用P*(k+1|k);
③动态组合
设fi(t)和Ξ(t)分别表示t时刻第i个像素灰度值的模糊度及模糊分布,
Figure BSA00000889648500114
和Ξl表示到l时刻为止由第i个像素灰度值的积累融合得到的模糊度及模糊分布,这里,l=1,2,…,t,即 &Xi; ( t ) = &Sigma; i &Element; T f i ( t ) / o i &Xi; t - 1 = &Sigma; i &Element; T f i ( t - 1 ) / o i , 这里oi是像素,T是时间集,将t-1时刻的累积融合模糊分布与t时刻的测量模糊分布进行融合,可得第i个像素到t时刻为止的灰度值累积融合模糊分布Ξi
Figure BSA00000889648500117
其中, f i ( t ) = S [ f i ( t - 1 ) , f i ( t ) ] , S是模糊综合函数,通常取下式: S ( M i ( t ) ) = ( 1 t &Sigma; l = 1 t f i q ( l ) ) 1 q , q>0,这里设Mi(t)=(fi(1),fi(2),…,fi(t))′。
在本发明实施例中,在步骤S102中,定义目标感兴趣区域的支持度,由目标在感兴趣区域的分布规律计算支持度和最小支持度、最大支持度,确定感兴趣区域时,具体实现方法为:
目标集{A,B}的支持度是由同时包含A和B的事例总数组成的,分三种情况,定义如下:
①统计分布
定义{A,B}的支持度是:一个单位时间内A和B同时出现的次数(频率),即support({A,B})=arisen times(A,B)/time;
②模糊分布
由对抽出来的样本图像进行试验发现,有些目标在感兴趣区域出现的情况本身是模棱两可的,所以根据专家经验或试验数据,对A和B同时出现的支持度定义为在区间[0,1]内的值,即对出现情况打分或定义一个隶属函数来定义{A,B}的支持度;
③不完整分布
如果图像感兴趣区域目标信息不完整,就先找出感兴趣区域最大可能的支持区和最小可能的支持区,给定感兴趣区域的一个划分关系R,按照关系R,把感兴趣区域分成若干子区,设用U表示感兴趣区域,用U/R表示子区,对感兴趣区域中的事例{A,B},先定义它的最大可能的支持区和最小可能的支持区如下:
{ A , B } L = &cup; Y &Element; U / R , Y &SubsetEqual; { A , B } Y
{ A , B } U = &cup; Y &Element; U / R , Y &cap; { A , B } &NotEqual; &phi; Y
定义{A,B}的支持度为:
support({A,B})=Number of arisen{A,B}L/Number of arisen{A,B}U
最小支持度Minimum_support和最大支持度Maximum_support分别是一个阈值参数,该参数表示数据集的最低和最高支持度,用来度量目标集{A,B}实际和可能出现的频率阈值的事例数目,一般用百分数表示。
在本发明实施例中,在步骤S103中,提取感兴趣区域目标的多维参数的实现方法为:
在感兴趣区域中选取一个兴趣点或特征点,称为核心点,对感兴趣区域中的各点与核心点的灰度值比较,若感兴趣区域内的像素灰度与感兴趣区域核心的像素灰度差值小于给定的门限,则认为该点与核心点是同值或相似的,由满足这样条件的像素组成的区域称为特征区;
将感兴趣区域中的各点与核心点的灰度值用下面的相似比较函数进行比较:
C ( r r 0 , r r ) = 1 , | I ( r r ) - I ( r r 0 ) | &le; g 0 , | I ( r r ) - I ( r r 0 ) | > g - - - ( 1 )
式中:g为灰度差门限,是确定相似程度的阈值,g的选取要根据图像中目标与背景的对比程度来确定;
Figure BSA00000889648500131
是当前核心点的位置;
Figure BSA00000889648500132
是圆形感兴趣区域内其他任一点的位置;
Figure BSA00000889648500133
Figure BSA00000889648500134
分别是核心与感兴趣区域中其他点的灰度值;
Figure BSA00000889648500135
是感兴趣区域内属于特征区的像素的判别函数,为输出;
特征区的大小或特征参数的数目可由下式计算:
Figure BSA00000889648500136
式中
Figure BSA00000889648500137
是以
Figure BSA00000889648500138
为圆心的感兴趣区域;
根据试验分析可知在实际噪声图像中如果核心点在边缘附近,n的值一般不会大于3nmax/4,用下式来产生边缘初始响应:
R ( r r 0 ) = n 0 - n ( r r 0 ) ifn ( r r 0 ) < n 0 0 otherwise - - - ( 3 )
式中,n0是门限;
Figure BSA000008896485001310
是响应函数;
在噪声存在的情况下,计算
Figure BSA000008896485001311
的均值是接近于0.75,因此定义阈值n0=3nmax/4,nmax
Figure BSA000008896485001312
所能达到的最大值;
由式(3)得到的边缘初始响应值大小符合“特征区越小,初始边缘响应就越大”;
之后确定边缘方向,
Figure BSA000008896485001313
Figure BSA000008896485001314
之比确定了边缘的方向,
Figure BSA000008896485001315
的符号用于确定对角边缘梯度方向的正负,这里
在本发明实施例中,在步骤S104中,根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解时,在提取出目标多维特征后,用模糊隶属函数或标准模板进行模糊匹配、识别,将未知多维参数的特征向量同已经训练好的已知类别的多维参数特征向量相比较,当且仅当它的特征向量与第i0类特征向量之间的相似度为最大时,按最大隶属原则判决待识别多维参数属于第i0类;这里选用正态型隶属度函数 &mu; X ij m ( u ) = e - ( u - &theta; ij m ) 2 2 &sigma; ij 2 &mu; X ~ j ( u ) = e - ( u - x j ) 2 2 &sigma; j 2 , 这里u是相应于
Figure BSA000008896485001319
的模糊因素,
Figure BSA000008896485001320
m=1,…,nij表示已知第i类目标在第j个参数方向上的第m个取值模糊数,
Figure BSA00000889648500141
为均值,
Figure BSA00000889648500142
表示被识别目标在第j个参数方向上的模糊观测值,xj为均值,σij和σj分别为
Figure BSA00000889648500143
Figure BSA00000889648500144
的展度,
Figure BSA00000889648500145
Figure BSA00000889648500146
分别表示
Figure BSA00000889648500148
的隶属度函数,那么,可计算被识别图像目标与已知第i类图像目标在第j个参数方向上的第m个取值相似度为
Figure BSA00000889648500149
由模糊析取命题推理得出这里
Figure BSA000008896485001411
于是,可得被识别模糊数向量与第i类目标的相似性向量为Di=[Di1,di2,…,dik]T,若
Figure BSA000008896485001412
使得
Figure BSA000008896485001413
则按最大隶属原则判断待识别目标属于第i0类。
在本发明实施例中,在步骤S104中,根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解时,先定义目标间关联的重要度,定义目标集{A,B}的重要度是目标A和B同时呈现的概率除以A的几率与B的几率之积,即Importance({A,B})=odds(A,B)/(odds(A)*odds(B));
这里odds(A,B)=support({A,B})/Maximum_support({A}U{not A}),
odds(A)=support({A})/Maximum_support({A}U{not A}),
odds(B)=support({B})/Maximum_support({B}U{not B});
如果Importance=1,则A和B是独立的项,它表示A和B的出现相互不影响,如果Importance<1,则A和B是负相关的,这表示在ROI中如果A呈现,则目标B不太可能出现;如果Importance>1,则A和B是正相关的,这表示在ROI中如果A呈现,则目标B可能也出现;
场景语义理解是对意图的判断,对两种意图的判断是由两个阈值和ROI的重要度决定的,设阈值0<β<α,一幅图像的ROI由若干个目标组成,用X表示;如果Importance(X)>α,则X肯定是意图1,如果β≤Importance(X)≤α,则X可能是意图1也可能是意图2,如果Importance(X)<β,则X肯定是意图2;阈值α和β通常由专家经验或试验数据给定,对多种意图的判断是由多个阈值和ROI的重要度决定的,再按两种阈值的方法进行两两组合,依次进行判断。
下面结合附图及具体实施例对本发明的应用原理作进一步描述。
本发明的实现方案如下:
(1)处理模糊图像的不确定信息,提出模糊信号处理方法
①模糊图像的去模糊处理方法
图像的模糊成度用x来表示,用隶属度来度量。隶属度的计算可通过专家给出,也可用隶属函数计算得到。
(1)当隶属度是取值在区间[0,1]中的任何变量值时,也就是,隶属度是无限多个任意值时,我们采取分割区间[0,1]。使用具有反馈神经元数目是N的网络训练。既然反馈神经元的数目是N,则划分这N个区间[0,1],把每个区间[0,1]分割成n(n>1)个相等的子区间,则分这状态空间成nN个超立方体,并且能获得区间端点值θs,这里s=0,1,…,n。
如果θi<x≤θi+1,i=0,1,…,n-1,则设
D ( x ) = &theta; i + &theta; i + 1 2
这里 &theta; i = i n , 0 &le; i &le; n - 1 , θn=1。
(2)根据统计分布,当隶属度集V的值是分别接近于有限个确定的值{θ0,θ1…,θm-1}时,即如果|x-θi|<ε,i=0,1,…,m-1,x∈V,我们设
D(x)=θi
这里,ε是任意小的正数且根据我们的需要来定,也就是说,当整个串由网络处理后,神经元的最终值x接近于θi
②修补处理
对一些被割裂、污损等不完整的图像,利用灰度相近性修补灰度值。对灰度状态进行迭代,具体的迭代形式为:
Figure BSA00000889648500161
其中,
Figure BSA00000889648500162
炎度状态的转移矩阵,
Figure BSA00000889648500163
为k时刻的灰度状态估计量,
Figure BSA00000889648500164
状态一步预测值,ρk+1为灰度的量测值,Kk+1是灰度状态增益量,h(·)为灰度的非线性量测函数,Pk+1为灰度状态估计均方误差,Pk+1|k是一步预测均方误差,Γk+1|k为灰度噪声的转移矩阵,Qk和Rk+1分别为灰度噪声和测量噪声的正定协方差矩阵。 H k + 1 = h X ( X ^ k + 1 | k ) = [ &dtri; X h ( X k + 1 ) ] T | X = X ^ ( k + 1 | k ) 是向量h的雅可比矩阵。具体的修补如下:
一种方法是:附加噪声,通过利用灰度状态噪声协方差Q*(k)使Q*(k)>Q(k)可实现这一点。
第二种方法是:在每一采样时间,用标量加权因子
Figure BSA00000889648500166
乘灰度状态协方差,即令
Figure BSA00000889648500167
然后在协方差更新方法中使用P*(k+1|k)。
③动态组合
设fi(t)和Ξ(t)分别表示t时刻第i个像素灰度值的模糊度及模糊分布,
Figure BSA00000889648500168
和Ξl表示到l时刻为止由第i个像素灰度值的积累融合得到的模糊度及模糊分布,这里,l=1,2,…,t,即 &Xi; ( t ) = &Sigma; i &Element; T f i ( t ) / o i &Xi; t - 1 = &Sigma; i &Element; T f i ( t - 1 ) / o i , 这里oi是像素,T是时间集。
将t-1时刻的累积融合模糊分布与t时刻的测量模糊分布进行融合,可得第i个像素到t时刻为止的灰度值累积融合模糊分布Ξt
Figure BSA000008896485001611
其中,
Figure BSA00000889648500171
S是模糊综合函数,通常取下式:
S ( M i ( t ) ) = ( 1 t &Sigma; l = 1 t f i q ( l ) ) 1 q , q > 0
这里设Mi(t)=(fi(1),fi(2),…,fi(t))′。
经上述三种模糊信号处理方法对图像的处理,改善了模糊图像的质量,提高了清晰度。
上述所提出的模糊图像处理方法与现有图像处理方法相比较,提出的模糊处理方法比现有其它处理方法对图像的处理速度快且效果好。
(2)定义支持度,选定ROI
通过对图像去模糊,得到比较清晰的目标图像,要定位ROI,需要发展一个算法。本发明给出一个定位算法:定义ROI目标的支持度,由目标在ROI的分布规律计算支持度和最小、最大支持度,确定ROI。
支持度用于度量一个目标集出现的机率。目标集{A,B}的支持度是由同时包含A和B的事例总数组成的,分三种情况,定义如下:
①统计分布
定义{A,B}的支持度是:一个单位时间内A和B同时出现的次数(频率),即support({A,B})=arisen times(A,B)/time;
②模糊分布
由对抽出来的样本图像进行试验发现,有些目标在ROI出现的情况本身是模棱两可的,所以根据专家经验或试验数据,对A和B同时出现的支持度定义为在区间[0,1]内的值,即对出现情况打分或定义一个隶属函数来定义{A,B}的支持度。
例如,有一幅飞机的模糊图像,用(0~40年)表示飞机新旧的程度,在图像中找出“新飞机”群和“老飞机”群,分别用{A,B}和{C,B}表示。取区间U=[0,40],定义集合{A,B}和{C,B}的支持度分别为:
support ( { A , B } ) = 1 , 0 &le; { A , B } &le; 10 [ 1 + ( { A , B } - 10 2 ) 2 ] - 1 , 10 < { A , B } &le; 40 ,
support ( { C , B } ) 0 , 0 &le; { C , B } &le; 20 [ 1 + ( { C , B } - 20 2 ) - 2 ] - 1 , 20 < { C , B } &le; 40
对{A,B}和{C,B}属于[0,40],{A,B}和{C,B}的支持度也可分别用下列函数定义:
support ( { A , B } ) = 1 1 + e { A , B } support ( { C , B } ) = 1 1 + e - { C , B } .
③不完整分布
如果图像ROI目标信息不完整,就先找出ROI最大可能的支持区和最小可能的支持区。给定ROI的一个划分关系R,按照关系R,把ROI分成若干子区。设用U表示ROI,用U/R表示子区。对ROI中的事例{A,B},先定义它的最大可能的支持区和最小可能的支持区如下:
{ A , B } L = &cup; Y &Element; U / R , Y &SubsetEqual; { A , B } Y
{ A , B } U = &cup; Y &Element; U / R , Y &cap; { A , B } &NotEqual; &phi; Y
定义{A,B}的支持度为:
support({A,B})=Number ofarisen{A,B}L/Number ofarisen{A,B}U
最小支持度Minimum_support和最大支持度Maximum_support分别是一个阈值参数。该参数表示数据集的最低和最高支持度,用来度量目标集{A,B}实际和可能出现的频率阈值的事例数目。一般用百分数表示。
根据实际情况,选取支持度公式,计算支持度和最小、最大支持度,从而确定ROI,如图2所示。
(3)ROI目标的多维参数提取
目标的多维参数提取算法如下:
在ROI中选取一个兴趣点或特征点,称为核心点。对ROI中的各点与核心点的灰度值比较,若ROI内的像素灰度与ROI核心的像素灰度差值小于给定的门限,则认为该点与核心点是同值(或相似)的,由满足这样条件的像素组成的区域称为特征区(Characteristic Segment,CS)。
将ROI中的各点与核心点的灰度值用下面的相似比较函数进行比较。
C ( r r 0 , r r ) = 1 , | I ( r r ) - I ( r r 0 ) | &le; g 0 , | I ( r r ) - I ( r r 0 ) | > g - - - ( 1 )
式中:g为灰度差门限,是确定相似程度的阈值。g的选取要根据图像中目标与背景的对比程度来确定;
Figure BSA00000889648500192
是当前核心点的位置;是圆形ROI内其他任一点的位置;
Figure BSA00000889648500194
Figure BSA00000889648500195
分别是核心与ROI中其他点的灰度值;
Figure BSA00000889648500196
是ROI内属于特征区的像素的判别函数,是输出。
特征区的大小或特征参数的数目可由下式计算:
式中
Figure BSA00000889648500198
是以
Figure BSA00000889648500199
为圆心的ROI。
根据试验分析可知在实际噪声图像中如果核心点在边缘附近,n的值一般不会大于3nmax/4。用下式来产生边缘初始响应:
R ( r r 0 ) = n 0 - n ( r r 0 ) ifn ( r r 0 ) < n 0 0 otherwise - - - ( 3 )
式中,n0是门限;是响应函数。
在噪声存在的情况下,计算
Figure BSA000008896485001912
的均值是接近于0.75。因此定义阈值n0=3nmax/4,nmax
Figure BSA000008896485001913
所能达到的最大值。
由式(3)得到的边缘初始响应值大小符合“特征区越小,初始边缘响应就越大”。
之后确定边缘方向,
Figure BSA000008896485001914
Figure BSA000008896485001915
之比确定了边缘的方向。的符号用于确定对角边缘梯度方向的正负。这里
Figure BSA000008896485001917
Figure BSA000008896485001918
综上所述,具体计算步骤如下:
①对图像的每个像素上放一个圆形ROI;
②在圆形ROI内,使用方程(1)来计算与核心灰度值相似的像素的值,然后,利用方程(2)来计算这些像素的数目,这些像素的数目定义为特征区;
③用方程(3),产生边缘响应图像;
④得到初始边缘响应后用特征重心及对称最长轴来确定局部边缘方向;
⑤在局部边缘垂直方向上取初始响应的局部极大值点的位置为边缘点,并进行细化、平滑,连接间断边缘点、消除假边缘点和边缘小分枝等处理,获得单一、连续、平滑的边缘输出。
利用上述方法,对ROI目标特征多维参数提取如下:
Figure BSA00000889648500201
(4)模糊识别算法
提取出目标多维特征后,用模糊隶属函数或标准模板等进行模糊匹配、识别。将未知多维参数的特征向量同已经训练好的已知类别的多维参数特征向量相比较,当且仅当它的特征向量与第i0类特征向量之间的相似度为最大时,按最大隶属原则判决待识别多维参数属于第i0类。这里选用正态型隶属度函数 &mu; X ij m ( u ) = e - ( u - &theta; ij m ) 2 2 &sigma; ij 2 &mu; X ~ j ( u ) = e - ( u - x j ) 2 2 &sigma; j 2 , 这里u是相应于
Figure BSA00000889648500204
的模糊因素,
Figure BSA00000889648500205
m=1,…,nij表示已知第i类目标在第j个参数方向上的第m个取值模糊数,
Figure BSA00000889648500206
为其均值。
Figure BSA00000889648500207
表示被识别目标在第j个参数方向上的模糊观测值,xj为其均值。σij和σj分别为
Figure BSA00000889648500208
Figure BSA00000889648500209
的展度,
Figure BSA000008896485002010
Figure BSA000008896485002011
分别表示
Figure BSA000008896485002012
Figure BSA000008896485002013
的隶属度函数。那么,可计算被识别图像目标与已知第i类图像目标在第j个参数方向上的第m个取值相似度为
Figure BSA000008896485002014
由模糊析取命题推理得出
Figure BSA000008896485002015
这里
Figure BSA00000889648500211
于是,可得被识别模糊数向量与第i类目标的相似性向量为Di=[di1,di2,…,dik]T,若
Figure BSA00000889648500212
使得
Figure BSA00000889648500213
则按最大隶属原则判断待识别目标属于第i0类。
由实验结果知,通过模糊识别法在图像处理中的应用,其识别准确率达到94.59%,比现有的目标识别法准确率都高。
(5)实现图像场景语义理解
要实现ROI场景语义理解,先定义目标间关联的重要度。定义目标集{A,B}的重要度是目标A和B同时呈现的概率除以A的几率与B的几率之积,即
Importance({A,B})=odds(A,B)/(odds(A)*odds(B))
这里odds(A,B)=support({A,B})/Maximum_support({A}U{not A}),
odds(A)=support({A})/Maximum_support({A}U{not A}),
odds(B)=support({B})/Maximum_support({B}U{not B}).
如果Importance=1,则A和B是独立的项。它表示A和B的出现相互不影响。如果Importance<1,则A和B是负相关的。这表示在ROI中如果A呈现,则目标B不太可能出现。如果Importance>1,则A和B是正相关的。这表示在ROI中如果A呈现,则目标B可能也出现。
场景语义理解是对意图的判断。对两种意图的判断是由两个阈值和ROI的重要度决定的。设阈值0<β<α,一幅图像的ROI由若干个目标组成,用X表示。如果Importance(X)>α,则X肯定是意图1。如果β≤Importance(X)≤α,则X可能是意图1也可能是意图2。如果Importance(X)<β,则X肯定是意图2。阈值α和β通常由专家经验或试验数据给定。对多种意图的判断是由多个阈值和ROI的重要度决定的,再按两种阈值的方法进行两两组合,依次进行判断。
例如,设有一幅月球表面图像的ROI X有3种目标组成,这三种目标指的是3种不同的物体。这3种物体可能是矿物质o1,表面洞o2,金属o3,人类仪器o4,其他物体o5,则论域Ω={o1,o2,o3,o4,o5}是一个目标识别框架。由这识别框架怎样理解X?
通过多维参数抽取法对ROI目标的一些属性值进行提取,然后由模糊识别法来识别ROI中的目标。经模糊识别方法,得出X={o1,o2,o4}。
取α=0.85,β=0.6。由专家经验和试验数据知,如果Importance(X)>α,则X肯定是月球表面实验。如果β≤Importance(X)≤α,则X可能是月球表面实验也可能是人类探月所做标记。如果Importance(X)<β,则X肯定是人类探月所做标记。由重要度公式计算,Importance({o1,o2,o4})=0.88。则Importance({o1,o2,o4})>α,说明X={o1,o2,o4}是月球表面实验。
通过对ROI场景进行语义理解,进而构建一种ROI自动理解的系统模型,如图3所示。
图3中的uhl,vlp,wpq是网络权值的调节。根据指示器显示的ROI目标的组成情况,再根据专家经验或试验数据,理解ROI场景意图。
本发明的创新点如下:
(1)模糊图像目标ROI选定过程中如何对模糊信息进行处理
在模糊图像目标ROI选定过程中,首先遇到许多模糊信号需要预先处理,那么如何对这些模糊信号进行有效处理,是本发明要研究的一个关键问题。
(2)ROI目标的多维参数提取
要实现目标的准确识别、ROI的语义理解,必须对目标参数进行有效的提取。目前,对多种信号的多维参数提取是现在许多部门棘手的问题。而对模糊信号的各特征参数及其特征点的抽取,更是一个亟待解决的难题。
对这个难题的解决,如果仅依靠经典的数学建模与抽取技术很难完成模糊信号的多维参数提取。本发明以图像的模糊性和物体本身的特性,提取多维参数模糊特征向量。
(3)模糊图像ROI中的场景语义理解
在高度信息化的现代社会,目标鉴别已经渗透到日常生活的每一个方面。以及世界各国对周边地区环境监视的日益增长,对监视画面意图的准确领会的需要等,这些应用研究已成为图像处理领域的一个热点问题。然而,目前对于图像的场景语义理解的研究极少。
针对这个问题的研究,本发明根据提取的多维参数模糊特征向量,提出一种模糊的识别算法、相应的场景语义理解方法;再由专家经验或实验数据对ROI场景进行语义理解,进一步构建一种ROI自动理解的系统模型。
本发明实施例提供的感兴趣区域模糊图像语义理解的方法,针对模糊图像中的各种模糊信号的模糊性、不完备性和场景语义理解,在不确定因素分类与影响分析的基础上,构建去模糊处理、修补处理、动态组合处理的三级处理模式框架,对模糊信号进行处理;定义目标感兴趣区域的支持度,由目标在感兴趣区域的分布规律计算支持度和最小支持度、最大支持度,确定感兴趣区域;提取感兴趣区域目标的多维参数;根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解;该方法依据对目标测量的不确定性信息进行推理,以达到目标身份识别和属性判决的目的,对不确定性理论的进一步发展提供了有价值的参考,为不同类型的模糊信号处理提供思路方法,具有重要的理论意义和实用价值。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种感兴趣区域模糊图像语义理解的方法,其特征在于,该方法包括以下步骤:
步骤一,针对模糊图像中的各种模糊信号的模糊性、不完备性和场景语义理解,在不确定因素分类与影响分析的基础上,构建去模糊处理、修补处理、动态组合处理的三级处理模式框架,对模糊信号进行处理;
步骤二,定义目标感兴趣区域的支持度,由目标在感兴趣区域的分布规律计算支持度和最小支持度、最大支持度,确定感兴趣区域;
步骤三,提取感兴趣区域目标的多维参数;
步骤四,根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解。
2.如权利要求1所述的方法,其特征在于,在步骤一中,针对模糊图像中的各种模糊信号的模糊性、不完备性和场景语义理解,在不确定因素分类与影响分析的基础上,构建去模糊处理、修补处理、动态组合处理的三级处理模式框架,对模糊信号进行处理时,包括:
①模糊图像的去模糊处理方法
图像的模糊成度用x来表示,用隶属度来度量,隶属度的计算可通过专家给出,也可用隶属函数计算得到;
(1)当隶属度是取值在区间[0,1]中的任何变量值时,也就是当隶属度是无限多个任意值时,采取分割区间[0,1],使用具有反馈神经元数目是N的网络训练,既然反馈神经元的数目是N,则划分这N个区间[0,1],把每个区间[0,1]分割成n(n>1)个相等的子区间,则分这状态空间成nN个超立方体,并且能获得区间端点值θs,这里s=0,1,…,n,如果θi<x≤θi+1,i=0,1,…,n-1,则设
Figure FSA00000889648400011
这里 &theta; i = i n , 0 &le; i &le; n - 1 , θn=1;
(2)根据统计分布,当隶属度集V的值是分别接近于有限个确定的值{θ0,θ1…,θm-1}时,即如果|x-θi|<ε,i=0,1,…,m-1,x∈V,设D(x)=θi,这里ε是任意小的正数且根据需要来确定,即当整个串由网络处理后,神经元的最终值x接近于θi
②修补处理
对一些被割裂、污损等不完整的图像,利用灰度相近性修补灰度值,对灰度状态进行迭代,具体的迭代形式为:
Figure FSA00000889648400021
其中,
Figure FSA00000889648400022
灰度状态的转移矩阵,
Figure FSA00000889648400023
为k时刻的灰度状态估计量,状态一步预测值,ρk+1为灰度的量测值,Kk+1是灰度状态增益量,h(·)为灰度的非线性量测函数,Pk+1为灰度状态估计均方误差,Pk+1|k是一步预测均方误差,Γk+1|k为灰度噪声的转移矩阵,Qk和Rk+1分别为灰度噪声和测量噪声的正定协方差矩阵, H k + 1 = h X ( X ^ k + 1 | k ) = [ &dtri; X h ( X k + 1 ) ] T | X = X ^ ( k + 1 | k ) 是向量h的雅可比矩阵,具体的修补如下:
一种方法是:附加噪声,通过利用灰度状态噪声协方差Q*(k)使Q*(k)>Q(k)可实现这一点;
第二种方法是:在每一采样时间,用标量加权因子
Figure FSA00000889648400026
乘灰度状态协方差,即令
Figure FSA00000889648400027
然后在协方差更新方法中使用P*(k+1|k);
③动态组合
设fi(t)和Ξ(t)分别表示t时刻第i个像素灰度值的模糊度及模糊分布,
Figure FSA00000889648400028
和Ξl表示到l时刻为止由第i个像素灰度值的积累融合得到的模糊度及模糊分布,这里,l=1,2,…,t,即 &Xi; ( t ) = &Sigma; i &Element; T f i ( t ) / o i &Xi; t - 1 = &Sigma; i &Element; T f i ( t - 1 ) / o i , 这里oi是像素,T是时间集,将t-1时刻的累积融合模糊分布与t时刻的测量模糊分布进行融合,可得第i个像素到t时刻为止的灰度值累积融合模糊分布Ξt
Figure FSA00000889648400033
其中, f i ( t ) = S [ f i ( t - 1 ) , f i ( t ) ] , S是模糊综合函数,通常取下式: S ( M i ( t ) ) = ( 1 t &Sigma; l = 1 t f i q ( l ) ) 1 q , q>0,这里设Mi(t)=(fi(1),fi(2),…,fi(t))′。
3.如权利要求1所述的方法,其特征在于,在步骤二中,定义目标感兴趣区域的支持度,由目标在感兴趣区域的分布规律计算支持度和最小支持度、最大支持度,确定感兴趣区域时,具体实现方法为:
目标集{A,B}的支持度是由同时包含A和B的事例总数组成的,分三种情况,定义如下:
①统计分布
定义{A,B}的支持度是:一个单位时间内A和B同时出现的次数(频率),即support({A,B})=arisen times(A,B)/time;
②模糊分布
由对抽出来的样本图像进行试验发现,有些目标在感兴趣区域出现的情况本身是模棱两可的,所以根据专家经验或试验数据,对A和B同时出现的支持度定义为在区间[0,1]内的值,即对出现情况打分或定义一个隶属函数来定义{A,B}的支持度;
③不完整分布
如果图像感兴趣区域目标信息不完整,就先找出感兴趣区域最大可能的支持区和最小可能的支持区,给定感兴趣区域的一个划分关系R,按照关系R,把感兴趣区域分成若干子区,设用U表示感兴趣区域,用U/R表示子区,对感兴趣区域中的事例{A,B},先定义它的最大可能的支持区和最小可能的支持区如下:
{ A , B } L = &cup; Y &Element; U / R , Y &SubsetEqual; { A , B } Y
{ A , B } U = &cup; Y &Element; U / R , Y &cap; { A , B } &NotEqual; &phi; Y
定义{A,B}的支持度为:
support({A,B})=Number of arisen{A,B}L/Number of arisen{A,B}U
最小支持度Minimum_support和最大支持度Maximum_support分别是一个阈值参数,该参数表示数据集的最低和最高支持度,用来度量目标集{A,B}实际和可能出现的频率阈值的事例数目,一般用百分数表示。
4.如权利要求1所述的方法,其特征在于,在步骤三中,提取感兴趣区域目标的多维参数的实现方法为:
在感兴趣区域中选取一个兴趣点或特征点,称为核心点,对感兴趣区域中的各点与核心点的灰度值比较,若感兴趣区域内的像素灰度与感兴趣区域核心的像素灰度差值小于给定的门限,则认为该点与核心点是同值或相似的,由满足这样条件的像素组成的区域称为特征区;
将感兴趣区域中的各点与核心点的灰度值用下面的相似比较函数进行比较:
C ( r r 0 , r r ) = 1 , | I ( r r ) - I ( r r 0 ) | &le; g 0 , | I ( r r ) - I ( r r 0 ) | > g - - - ( 1 )
式中:g为灰度差门限,是确定相似程度的阈值,g的选取要根据图像中目标与背景的对比程度来确定;是当前核心点的位置;
Figure FSA00000889648400045
是圆形感兴趣区域内其他任一点的位置;
Figure FSA00000889648400047
分别是核心与感兴趣区域中其他点的灰度值;是感兴趣区域内属于特征区的像素的判别函数,为输出;
特征区的大小或特征参数的数目可由下式计算:
Figure FSA00000889648400049
式中
Figure FSA000008896484000410
是以
Figure FSA000008896484000411
为圆心的感兴趣区域;
根据试验分析可知在实际噪声图像中如果核心点在边缘附近,n的值一般不会大于3nmax/4,用下式来产生边缘初始响应:
R ( r r 0 ) = n 0 - n ( r r 0 ) ifn ( r r 0 ) < n 0 0 otherwise - - - ( 3 )
式中,n0是门限;
Figure FSA00000889648400052
是响应函数;
在噪声存在的情况下,计算
Figure FSA00000889648400053
的均值是接近于0.75,因此定义阈值n0=3nmax/4,nmax
Figure FSA00000889648400054
所能达到的最大值;
由式(3)得到的边缘初始响应值大小符合“特征区越小,初始边缘响应就越大”;
之后确定边缘方向,
Figure FSA00000889648400055
之比确定了边缘的方向,
Figure FSA00000889648400057
的符号用于确定对角边缘梯度方向的正负,这里
Figure FSA00000889648400058
5.如权利要求1所述的方法,其特征在于,在步骤四中,根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解时,在提取出目标多维特征后,用模糊隶属函数或标准模板进行模糊匹配、识别,将未知多维参数的特征向量同已经训练好的已知类别的多维参数特征向量相比较,当且仅当它的特征向量与第i0类特征向量之间的相似度为最大时,按最大隶属原则判决待识别多维参数属于第i0类;这里选用正态型隶属度函数 &mu; X ij m ( u ) = e - ( u - &theta; ij m ) 2 2 &sigma; ij 2 &mu; X ~ j ( u ) = e - ( u - x j ) 2 2 &sigma; j 2 , 这里u是相应于的模糊因素,
Figure FSA000008896484000512
m=1,…,nij表示已知第i类目标在第j个参数方向上的第m个取值模糊数,为均值,
Figure FSA000008896484000514
表示被识别目标在第j个参数方向上的模糊观测值,xj为均值,σij和σj分别为
Figure FSA000008896484000515
Figure FSA000008896484000516
的展度,
Figure FSA000008896484000517
Figure FSA000008896484000518
分别表示
Figure FSA000008896484000520
的隶属度函数,那么,可计算被识别图像目标与已知第i类图像目标在第j个参数方向上的第m个取值相似度为由模糊析取命题推理得出
Figure FSA000008896484000522
这里于是,可得被识别模糊数向量与第i类目标的相似性向量为Di=[di1,di2,…,dik]T,若
Figure FSA00000889648400061
使得
Figure FSA00000889648400062
则按最大隶属原则判断待识别目标属于第i0类。
6.如权利要求1所述的方法,其特征在于,在步骤四中,根据专家知识或实验数据对感兴趣区域场景进行语义理解,建立模糊图像自动理解的系统模型,实现模糊图像的场景语义理解时,先定义目标间关联的重要度,定义目标集{A,B}的重要度是目标A和B同时呈现的概率除以A的几率与B的几率之积,即Importance({A,B})=odds(A,B)/(odds(A)*odds(B));
这里odds(A,B)=support({A,B})/Maximum_support({A}U{not A}),
odds(A)=support({A})/Maximum_support({A}U{not A}),
odds(B)=support({B})/Maximum_support({B}U{not B});
如果Importance=1,则A和B是独立的项,它表示A和B的出现相互不影响,如果Importance<1,则A和B是负相关的,这表示在ROI中如果A呈现,则目标B不太可能出现;如果Importance>1,则A和B是正相关的,这表示在ROI中如果A呈现,则目标B可能也出现;
场景语义理解是对意图的判断,对两种意图的判断是由两个阈值和ROI的重要度决定的,设阈值0<β<α,一幅图像的ROI由若干个目标组成,用X表示;如果Importance(X)>α,则X肯定是意图1,如果β≤Importance(X)≤α,则X可能是意图1也可能是意图2,如果Importance(X)<β,则X肯定是意图2;阈值α和β通常由专家经验或试验数据给定,对多种意图的判断是由多个阈值和ROI的重要度决定的,再按两种阈值的方法进行两两组合,依次进行判断。
CN201310163773.7A 2013-04-21 2013-04-21 一种感兴趣区域模糊图像语义理解的方法 Active CN103268498B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310163773.7A CN103268498B (zh) 2013-04-21 2013-04-21 一种感兴趣区域模糊图像语义理解的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310163773.7A CN103268498B (zh) 2013-04-21 2013-04-21 一种感兴趣区域模糊图像语义理解的方法

Publications (2)

Publication Number Publication Date
CN103268498A true CN103268498A (zh) 2013-08-28
CN103268498B CN103268498B (zh) 2016-06-29

Family

ID=49012125

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310163773.7A Active CN103268498B (zh) 2013-04-21 2013-04-21 一种感兴趣区域模糊图像语义理解的方法

Country Status (1)

Country Link
CN (1) CN103268498B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105556539A (zh) * 2014-05-16 2016-05-04 联发科技股份有限公司 检测兴趣区域的检测装置和方法
CN108462833A (zh) * 2018-03-26 2018-08-28 北京小米移动软件有限公司 拍摄方法、装置及计算机可读存储介质
CN110263872A (zh) * 2019-06-26 2019-09-20 上海鹰瞳医疗科技有限公司 训练数据处理方法及装置
CN110520869A (zh) * 2017-04-28 2019-11-29 阿诺特尔布莱恩公司 能够提供时空事件的动态感知不变性以期从其提取统一语义表示的自动化方法和装置
CN111243711A (zh) * 2018-11-29 2020-06-05 皇家飞利浦有限公司 医学成像中的特征识别
US11144800B2 (en) * 2017-04-25 2021-10-12 Beijing Sensetime Technology Development Co., Ltd. Image disambiguation method and apparatus, storage medium, and electronic device
CN113918682A (zh) * 2021-10-19 2022-01-11 四川大学 一种涉案财物知识库的知识抽取方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930294A (zh) * 2012-10-18 2013-02-13 上海交通大学 基于混沌特征量视频运动模态分割和交通状况识别的方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930294A (zh) * 2012-10-18 2013-02-13 上海交通大学 基于混沌特征量视频运动模态分割和交通状况识别的方法

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
HANS-J. LENZ EL AT.: "《Edits – Data Cleansing at the Data Entry to assert semantic Consistency of metric Data》", 《IEEE》 *
QIANSHENG ZHANG EL AT.: "《 A interval-valued fuzzy reasoning algorithm based on OWA operator》", 《IEEE》, 31 December 2009 (2009-12-31), pages 246 - 250 *
QIANSHENG ZHANG EL AT.: "《A interval-valued fuzzy reasoning algorithm based on OWA operator》", 《IEEE》 *
STEFANO R. BONISSONE: "《Evolutionary Algorithms for Multi-Objective Optimization:Fuzzy Preference Aggregation and Multi-Sexual EAs》", 《PROCEEDINGS OF SPIE》 *
吴青娥等: "《一种基于模糊自动机的目标识别方法》", 《模式识别与人工智能》 *
孙晓玲等: "《基于OWA算子的区间值加权模糊推理》", 《计算机工程与应用》 *
张明等: "《模糊图像检索技术及应用研究》", 《计算机应用》 *
曾文艺等: "《基于区间数度量的区间值模糊集合的归一化距离、相似度、模糊度和包含度的关系研究》", 《模糊系统与数学》 *
曾文艺等: "《基于区间数度量的区间值模糊集合的贴近度和模糊度的关系》", 《模糊系统与数学》 *
武德峰: "《多媒体数据集中的数据挖掘: 系统框架和方法》", 《计算机应用研究》 *
蒋华伟: "《基于模糊熵的空间语义图像检索模型研究》", 《计算机应用研究》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105556539A (zh) * 2014-05-16 2016-05-04 联发科技股份有限公司 检测兴趣区域的检测装置和方法
US11144800B2 (en) * 2017-04-25 2021-10-12 Beijing Sensetime Technology Development Co., Ltd. Image disambiguation method and apparatus, storage medium, and electronic device
CN110520869A (zh) * 2017-04-28 2019-11-29 阿诺特尔布莱恩公司 能够提供时空事件的动态感知不变性以期从其提取统一语义表示的自动化方法和装置
CN110520869B (zh) * 2017-04-28 2023-06-02 阿诺特尔布莱恩公司 信号处理电路和方法、从信号提取感知不变的装置和方法
CN108462833A (zh) * 2018-03-26 2018-08-28 北京小米移动软件有限公司 拍摄方法、装置及计算机可读存储介质
CN108462833B (zh) * 2018-03-26 2021-01-22 北京小米移动软件有限公司 拍摄方法、装置及计算机可读存储介质
CN111243711A (zh) * 2018-11-29 2020-06-05 皇家飞利浦有限公司 医学成像中的特征识别
CN111243711B (zh) * 2018-11-29 2024-02-20 皇家飞利浦有限公司 医学成像中的特征识别
CN110263872A (zh) * 2019-06-26 2019-09-20 上海鹰瞳医疗科技有限公司 训练数据处理方法及装置
CN110263872B (zh) * 2019-06-26 2022-05-17 上海鹰瞳医疗科技有限公司 训练数据处理方法及装置
CN113918682A (zh) * 2021-10-19 2022-01-11 四川大学 一种涉案财物知识库的知识抽取方法

Also Published As

Publication number Publication date
CN103268498B (zh) 2016-06-29

Similar Documents

Publication Publication Date Title
CN103268498A (zh) 一种感兴趣区域模糊图像语义理解的方法
CN103839065B (zh) 人群动态聚集特征提取方法
CN101403676B (zh) 基于d-s证据理论的绝缘子憎水性等级融合判决方法
CN106778595B (zh) 基于高斯混合模型的人群中异常行为的检测方法
CN101520894B (zh) 基于区域显著性的显著对象提取方法
CN105404847B (zh) 一种遗留物实时检测方法
CN104966085B (zh) 一种基于多显著特征融合的遥感图像感兴趣区域检测方法
CN106204640A (zh) 一种运动目标检测系统及方法
CN105374033B (zh) 基于脊波反卷积网络和稀疏分类的sar图像分割方法
CN109871875B (zh) 一种基于深度学习的建筑物变化检测方法
CN106203274A (zh) 一种视频监控中行人实时检测系统及方法
CN102073873B (zh) 一种基于支持向量机的sar景象匹配区选取方法
CN103984946A (zh) 一种基于K-means的高分辨率遥感地图道路提取方法
Karpagavalli et al. Estimating the density of the people and counting the number of people in a crowd environment for human safety
CN103048329A (zh) 一种基于主动轮廓模型的路面裂缝检测方法
CN104616274A (zh) 一种基于显著性区域提取的多聚焦图像融合算法
CN109948593A (zh) 基于结合全局密度特征的mcnn人群计数方法
CN102867188A (zh) 一种基于级联结构的会场内座位状态检测方法
CN105279772A (zh) 一种红外序列图像的可跟踪性判别方法
CN103390151B (zh) 人脸检测方法及装置
CN105512622B (zh) 一种基于图分割和监督学习的可见光遥感图像海陆分割方法
CN102254394A (zh) 一种基于视频差异分析的输电线路杆塔防盗监控方法
CN103761526A (zh) 一种基于特征位置优选整合的城区检测方法
CN105678735A (zh) 一种用于雾天图像的目标显著性检测方法
CN103678483A (zh) 基于自适应概率超图和半监督学习的视频语义分析方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB03 Change of inventor or designer information

Inventor after: Wu Qinge

Inventor after: Wu Yuanyuan

Inventor after: Sun Dong

Inventor after: Gu Donghua

Inventor after: Li Qingbo

Inventor after: Han Zhenyu

Inventor after: Niu Ying

Inventor after: Zheng Xiaowan

Inventor after: Xu Shuang

Inventor before: Wu Qinge

Inventor before: Zheng Xiaowan

Inventor before: Sun Dong

Inventor before: Gu Donghua

Inventor before: Han Zhenyu

Inventor before: Niu Ying

Inventor before: Xu Shuang

COR Change of bibliographic data

Free format text: CORRECT: INVENTOR; FROM: WU QINGE ZHENG XIAOWAN SUN DONG GU DONGHUA HAN ZHENYU NIU YING XU SHUANG TO: WU QINGE WU YUANYUAN SUN DONG GU DONGHUA LI QINGBO HAN ZHENYU NIU YING ZHENG XIAOWAN XU SHUANG

C14 Grant of patent or utility model
CB03 Change of inventor or designer information

Inventor after: Wu Qinge

Inventor after: Xu Shuang

Inventor after: Wu Yuanyuan

Inventor after: Zhang Xuncai

Inventor after: Niu Ying

Inventor after: Li Qingbo

Inventor after: Gu Donghua

Inventor after: Han Zhenyu

Inventor after: Sun Dong

Inventor after: Zheng Xiaowan

Inventor before: Wu Qinge

Inventor before: Wu Yuanyuan

Inventor before: Sun Dong

Inventor before: Gu Donghua

Inventor before: Li Qingbo

Inventor before: Han Zhenyu

Inventor before: Niu Ying

Inventor before: Zheng Xiaowan

Inventor before: Xu Shuang

COR Change of bibliographic data
GR01 Patent grant