CN1331099C - 基于内容的图像识别方法 - Google Patents

基于内容的图像识别方法 Download PDF

Info

Publication number
CN1331099C
CN1331099C CNB2004100350849A CN200410035084A CN1331099C CN 1331099 C CN1331099 C CN 1331099C CN B2004100350849 A CNB2004100350849 A CN B2004100350849A CN 200410035084 A CN200410035084 A CN 200410035084A CN 1331099 C CN1331099 C CN 1331099C
Authority
CN
China
Prior art keywords
image
point
interest
area
skin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB2004100350849A
Other languages
English (en)
Other versions
CN1691054A (zh
Inventor
谭铁牛
胡卫明
杨金锋
王谦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CNB2004100350849A priority Critical patent/CN1331099C/zh
Publication of CN1691054A publication Critical patent/CN1691054A/zh
Application granted granted Critical
Publication of CN1331099C publication Critical patent/CN1331099C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于内容的图像识别方法,包括步骤:首先对图像进行网格划分;然后以网格各节点为初始位置进行区域生长来获取图像中各节点周围的肤色信息;利用网格单元区域和各节点的相互投票的机制确定图像中的兴趣点和兴趣区域;在兴趣区域和兴趣点的基础上,利用点的运动提取图像中人体躯干的轮廓;最后,提取轮廓信息和轮廓内部中的局部信息生成特征向量对图像进行识别和性质判断。本发明突破了诸如色彩直方图匹配、小波变换轮廓匹配、肤色纹理描述、图像中心矩匹配等现有敏感图像识别技术速度慢、效率低、设备依赖性强等方面的难题,解决了三点式泳装图像,裸体图像和人脸图像的分类,使敏感图像识别技术得到了进一步的扩展并开拓了广阔的应用前景。

Description

基于内容的图像识别方法
技术领域
本发明涉及模式识别领域,特别涉及基于内容的图像识别方法。
背景技术
随着现代互联网技术的飞速发展,网络对全球经济和社会生活的渗透,其深度和影响力已远远超出人们的预料。网络信息安全逐渐成为一个极为重要的问题,其中对社会,尤其是对未成年人的影响更引起人们的广泛关注,所以信息过滤技术成了迫切的理论和实际需求。在美国,这些问题早在1994年就已引起公众的注意,当时美国社会深受便利的网络在线色情图片、暴力、恶毒言论等有害网络信息的痛苦困扰,诸多新闻、报纸、杂志都充斥着对色情网站、各种丑恶团体、在线性侵犯等问题的恐惧。网络上大量的有害内容直接导致国会通过“CommunicationsDecency Act(CDA)”和“Child On-line Protection Act(COPA)”两项法律。以此为法律依据,美国的软件工业开发了他们自己的网络内容过滤软件(Content blocking filter software)并建立网络内容审计系统平台(Platform for Internet Content Selection-PICS)。随后在1999年国会又通过了“Children’s Internet Protection Act(CIPA)”法律以保护青少年,使其免受网络有害信息的侵害。
在对敏感信息检测方面,国外一些大学(Berkeley,Iowa,Standford)开展了部分对网络上敏感图片进行分析的探索。Fleck与Forsyth[D.A.Forsyth,M.M.Fleck,Body plan,Proc.IEEE Conference on ComputerVision an d Pattern Recognition,1997,pp.678-863.]通过检测人体的皮肤,并把各部分皮肤区域连成一组,来识别一幅图片是否包含裸体内容。James Ze Wang[J.Z.Wang,G.Wiederhold,O.Firschein,Systemfor screening objectionable images,Computer CommunicationsJournal,Elsevier Science,1998,21(15),pp.1355-1360.]利用WIPE(Wavelet Image Pornography Elimimation)方法对敏感图片进行识别与过滤。这种方法综合利用了Daubechies小波变换,归一化中心矩,颜色直方图形成语义匹配向量进行图像分类识别。Jones和Rehg[M.J.Jones,J.M.Rehg,Statistical color models with application to skindetection,Proc.the International Conference on Computer Visionand Pattern Recognition,1999,pp.274-280.]对统计肤色模型作了深入的研究,他们先从互联网上采集了大量图像,并且手工标注了图像中的肤色区域,然后把这些图像作为训练样本从中训练中肤色模型,最后以肤色为主要信息去检测敏感图像。Bosson等人[A.Bosson,G.C.Cawley,Y.Chan,R.Harvey,Non-retrieval:Blocking pornographicimages,Proc.the International Conference on Image and VideoRetrieval,2002,pp.50-60.]把检测出的肤色区域作小椭圆块处理,对每个椭圆都提取诸如面积,中心点,轴长,离心率等特征,并对这些特征进行分类。此外,还有一些通用的基于内容的图像检索系统,如IBM的QBIC,Attrasoft的ImageFinder、MWLabs的Imatch等。值得一提的是,法国国立计算机与自动化研究所(INRIA)图像与多媒体索引组的四名科学家于1999年成立了LookThatUp公司,该公司图像过滤与检索产品在行业内处于领先地位。LookThatUp的Image-Filter利用先进的识别算法可以对网络上的图像进行实时过滤。
在2001年,欧洲启动NetProtect计划,该计划从2001年1月1日开始到2002年5月1日结束,由法国的EADS Matra Systemes & Information研究机构联合西班牙的Red Educativa、法国的Matra GlobalNetservices、希腊的Hyertech、德国的SailLabs等科研机构共同开发研制。NetProtect计划的目标是建立欧洲互联网内容过滤工具的统一技术标准,以实现跨地域、跨语言的互联网有害信息过滤。
国内现有的反黄软件有美萍软件工作室推出美萍反黄专家、ZiJinCheng.N ET推出的紫禁城反黄卫士、飞涛软件工作室推出的护花使者(像爱护花朵一样保护青少年,使其不受电子黄毒的侵害)、中国科学技术大学讯飞信息科技有限公司开发的“火眼金睛”电脑反黄软件、清华的“五行卫士”电脑反黄软件等等。需要提出的是国内的这些网络有害信息过滤软件无论从技术上还是从过滤方法上均不能达到应有的效果。特别是我国近些年来网络应用的飞速发展,致使网络对社会、家庭、教育的影响日益深远,所以网络有害信息过滤将面临前所未有的压力。需要强调的是,虽然互联网有害信息过滤技术在世界范围内得到了广泛的关注和研究,但在对有害信息识别技术方面仍然存在诸多难点,其中基于图像内容的色情图片识别和过滤方法仍然缺乏有效的算法和分类方法。因此如何开发更加鲁棒、准确的敏感图像识别技术仍是一个挑战。
发明内容
本发明的目的是提供一种基于内容的图像识别方法,解决的技术问题是利用敏感图片所能表达的人体的局部和形体信息来达到对敏感图像的识别。
为实现上述目的,一种基于内容的图像识别方法,包括步骤:
首先对图像进行网格划分;
然后以网格各节点为初始位置进行区域生长来获取图像中各节点周围的肤色信息;
利用网格单元区域和各节点的相互投票的机制确定图像中的兴趣点和兴趣区域;
在兴趣区域和兴趣点的基础上,利用点的运动提取图像中人体躯干的轮廓;
最后,提取轮廓信息和轮廓内部中的局部信息生成特征向量对图像进行识别和性质判断。
本发明是一种新型的敏感图像识别技术,突破了诸如色彩直方图匹配、小波变换轮廓匹配、肤色纹理描述、图像中心矩匹配等国际现有敏感图像识别技术速度慢、效率低、设备依赖性强等方面的难题,同时解决了三点式泳装图像,裸体图像和人脸图像的分类难题,使敏感图像识别技术得到了进一步的扩展并开拓了广阔的应用前景。
附图说明
图1是图像的几何划分,其中,图(a)是区域和点,图(b)是区域和周围子区域的关系,图(c)是点和周围子区域的关系;
图2是区域生长,其中,图(a)是4个单位向量,图(b)是生长方向由合成向量决定;
图3是区域投票,其中,图(a)是投票结果,图(b)感兴趣的区域,黑色部分为非目标区域;
图4是提取躯干轮廓和局部信息的几个过程;
图5是初始曲线和参考项,其中,图(a)是由感兴趣点组成的初始曲线,图(b)是参考向量和参考点,图(c)是点的运动模式;
图6是图像分类形式的拓扑结构;
图7是图像识别与判断流程。
具体实施方式
本发明的主要特点在于:1)采取了一种新型的图像网格划分和区域生长技术。这种技术能快速有效的提取图像中的肤色信息;2)在网络单元和节点投票的基础上,获取兴趣点和兴趣区域,这种方式缩短了目标区域获取的时间,降低了计算代价;3)综合利用兴趣区域和兴趣点作为人体躯干轮廓提取的初始信息,通过像素点集的优化来生成躯干轮廓。这个过程不仅能获取图像的局部信息,同时也能表达人体的形体信息;4)提取人体的形体特征、轮廓特征、局部特征并确立图像快速分类的方法。
下面详细给出该发明技术方案中所涉及的各个细节问题的说明:图像网格划分
对图像进行适当的划分是图像处理中经常采用的方法,这里我们对图像进行划分的目的是为了节约对图像进行底层处理的时间,同时也是为了方便地定位图像的感兴趣区域。划分方法如附图1(a)所示,图像被分为4×4共16个相等的区域。每个区域表示为aij,其中i,j=1,2,3,4。在每个区域的4个角上分别还标出4个子区域,因此对于一幅图像而言,每个区域和它所对应的4个子区域以及角落上的点之间都有联系,角落上每个点将周围4个区域联系在一起。我们对这些区域、子区域和点分别进行编号,如附图1(a),(b)和(c)所示。根据图7(b)和(c),我们可以定义下面2个矩阵
A = p ij ( 4 ) p i , j + 1 ( 3 ) p i + 1 , j ( 2 ) p i + 1 , j + 1 ( 1 ) P = p ij ( 1 ) P ij ( 2 ) p ij ( 3 ) p ij ( 4 ) - - - ( 1 )
A表示区域和它围的子区域之间的关系。P表示角落点和它周围的子区域之间的关系。然后就可以用区域、点和子区域来表示整幅图像。这将大大节省计算复杂度,为下面的步骤奠定基础。
区域生长
考虑到网络图像往往具有不同的尺寸,我们采用了一种新的区域生长方法,它以功能块而不是像素点为基本单位进行生长并利用已经得到的肤色分布来检测子区域内的肤色信息。首先我们从点pij出发,以它为中心在其周围确定一个6×6的功能块。然后确定4个单位向量,他们分别从中心点pij指向块的4个角,如附图2(a)所示。这4个向量的叠加可进一步合成新的向量,用于确定块的生长方向,如附图2(b)所示。不同方向有不同权重,为确定这些权值,一个块被均分为4个子块,对每个子块都计算其肤色面积比,并选择该比值作为对应的单位向量的权。例如,
s → g = w i s → i + w j s → j - - - ( 2 )
其中w为权值。整个块生长过程直到遇到子区域边界或4个权值都退化为0时才结束。我们定义Sgrow为生长区域总面积,Sskin肤色面积。实验表明,虽然Sgrow包含了生长区域内的非肤色面积,但在描述区域和点的属性时,Sgrow比Sskin更有效。于是我们定义
p ij ( e ) = S grow / S sub ( e = 1,2,3,4 ) - - - ( 3 )
兴趣点和兴趣区域的生成
不可否认图像中一些不具有肤色信息的区域属于敏感图像识别中的冗余信息,有效排除这些冗余区域将会缩减提取图像有用信息的时间。直观上讲,肤色丰富的区域应该是算法最感兴趣的区域,所以在这里我们采用了基于肤色信息的投票机制来获取感兴趣区域。我们定义aij的取值为
a ij = Σ ( p ij ( 4 ) + p i , j + 1 ( 3 ) + p i + 1 , j ( 2 ) + p i + 1 , j + 1 ( 1 ) ) - - - ( 4 )
这里方程右端的各个分量由方程(3)给出。然后对这些表达区域属性的变量进行归一化得到
αij=αij/M    (5)
其中M=max(a11,a12,...,aij,...,a44),M≠0。为突出区域之间的差别,还须确定点pij的可能取值。我们定义pij的值为
p ij = 1 ( true ) , if &Sigma; e = 1 4 p ij ( e ) &GreaterEqual; &alpha; 0 ( false ) , if &Sigma; e = 1 4 p ij ( e ) < &alpha; - - - ( 6 )
其中α是一个阈值。这里对于落在图像边界上的点均赋予0值,因为从拍摄角度来看,所要描述的物体应该位于靠图像中间的位置。选择那些取值为1的点为感兴趣点,则感兴趣点的总数为
N = &Sigma; i = 2 , j = 2 i = 5 , j = 5 p ij - - - ( 7 )
考虑到点和区域之间的关系,我们可以利用感兴趣点的取值来进行投票,也就是说每个感兴趣点都将为它的四周区域投1票。如果图像中所有的内部点都为真,那么投票结果如附图3(a):每个区域的最终票数都取决于位于它角落上的4个点
vscore(ij)=pij+pi,j+1+pi+1,j+pi+1,j+1    (8)
区域的最终得分为
Sregion(i,j)=αij+vscore(ij)    (9)
我们把区域按照其得分进行降序排列,选出从1到N共N个感兴趣区域并排除其它区域,那么目标区域就能凸现出来。一些结果如附图3(b)所示。感兴趣区域可用于表达人的形体信息,得分更高的区域可能包含更重要的信息和更多的可疑内容。重点研究感兴趣区域可以进一步描述形体,并可降低计算复杂度。
提取躯干轮廓和局部信息
对于敏感图像属性的判断,我们认为躯干包含的信息最能描述图像的性质。所以提取物体轮廓和轮廓内的局部信息是这部分的核心内容。附图4(a-d)给出了轮廓提取的过程。首先,我们设计了一个肤色边缘检测器来检测肤色边界点,然后把一些权重更高的感兴趣点连接起来形成一条闭合曲线,如附图4(a)所示。接下来,采集落在该闭合曲线外面但是离曲线在一定距离内的肤色边界点,将这些点连接起来形成另一条闭合曲线,如附图4(b)图所示。然后再调整该曲线上所有的非肤色边界点的位置,得到优化后的曲线即躯干轮廓曲线,如附图4(c)所示。最后,我们通过使用点生长技术来检测轮廓内的非肤色区域,得到局部信息,如非肤色区域的面积、位置等等,如附图4(d)所示。这里我们选了一幅包含4个感兴趣点的图像来具体描述我们的算法,如附图5所示。
首先定义所有肤色边界点的集合为Q,显然集合中有一定数量的点位于轮廓边界上,因而我们可以从集合Q中得到有关轮廓的初始信息。通过连接相邻的感兴趣点可得到闭合曲线Cr,如附图5(a)所示。
Cr=l1′+l2′+l3′+l4′    (10)
在曲线Gr的外侧作Gr的平行曲线Gr1,与Cr间相距λ,λ是一个阈值。我们定义夹在这两条曲线之间的肤色边界点集合为Q,显然Q是三一的个子集,其大小取决于阈值λ。把集合Q包含的所有点和感兴趣点互相连接起来,得到一条可以大体描述轮廓的曲线。我们定义这条曲线上所有的点集为D,然后定义DQ的差集E=D-Q。这样集合E同时包含了轮廓内的肤色点和轮廓外的非肤色点。接下来我们需要调整那些不在轮廓上的点的位置,使曲线更接近于真实的躯干轮廓。
在调整点的位置时,我们定义了几个基本的参考项。首先选择连接相邻感兴趣点的4条线段的中点作为参考点,从每个感兴趣点引出2条矢量指向相邻参考点,我们称之为参考矢量,如图5(b)所示。参考点决定了带调整点所属的区域,而参考矢量决定其运动模式。这些参考项对于我们的算法有重要意义,因为每个带调整点在初始阶段的运动都取决于其对应的参考矢量,要么靠近它,要么远离它。
接下来,我们通过图5(c)举例说明待调整点的具体运动模式。对于待调整的肤色点和非肤色点我们采用不同的搜索方案。假设P0表示肤色点,p0′表示非肤色点,它们的运动模式分别表示如下:
对于肤色点p0
Figure C20041003508400101
其中
&theta; 0 = arccos ( [ s 0 , R ] / | | s 0 | | &CenterDot; | | R | | ) r 0 = s 0 - ( | | s 0 | | cos &theta; 0 / | | R | | ) R - - - ( 12 )
对于非肤色点p′0
Figure C20041003508400112
其中
从中可以看出,肤色点沿着直线运动,不但可以很快地检测到邻近的肤色边界点,还可以定位距离比较远的肤色边界。而非肤色点沿着圆周运动,可以更好地符合躯干的弯曲状况。虽然肤色点和非肤色点具有不同的运动模式,它们的目的是一致的,都是为了检测落在初始轮廓外的新肤色边界点,从而在某种程度上去逼近真实的躯干轮廓。目标函数定义如下
F(pn)=g1(pn)+g1(pn)+g3(pn)    (15)
方程右边第1项表示是否为肤色边缘点,第2项表示是否为边缘点,其中边缘由sobel边缘检测器得到,第3项表示像素是否为肤色点。定义
f1=F(pn+1)-F(pn)    (16)
f2=F(pn)-F(pn-1)    (17)
如果f1≠0且f2≠0,那么选择Pn-1、Pn和Pn+13个点中目标函数值最大的点为目标轮廓点,以取代其对应的集合E中的初始点。最终优化后的曲线如图4(d)所示,我们称之为躯干轮廓,许多有关人体的重要特征都包含在轮廓之内。
接下来我们可以在轮廓内提取局部信息。首先不难得到轮廓的中轴线,然后我们利用点生长方法来在中轴线两边检测非肤色区域,从而可以得到这些非肤色区域的面积和位置信息。我们称这些居于轮廓内部的非肤色信息为局部信息。
图像特征提取与性质判断
根据4.3节讨论,我们事实上丢弃了图像4个角上的区域所含信息,这样做是合理的,因为图像的重点信息通常描述在图像的内部。由此不难看出一幅图中最多有9个感兴趣点。根据感兴趣点的数目,我们把所有图像分为9大类,然后根据图像的长宽比再把每大类分为3子类。因而,所有图像共分为27类,如附图6所示。这27类总共可以区分
N c = 3 &times; ( C 12 0 + C 12 1 + &CenterDot; &CenterDot; &CenterDot; + C 12 8 + C 12 9 ) = 12051 - - - ( 18 )
种图像,因而这些类别足够描述敏感图像的各种不同的差别。对于每幅图像,我们提取如下特征,首先是感兴趣区域的几何信息,然后是感兴趣区域的得分以及最高分区域的位置,第3是轮廓内相邻的非肤色区域之间的夹角,接下来是轮廓内面积最大的非肤色区域的位置,这由区域中心点到中轴线两端的距离之比决定。把这些特征展开重新排列成如下一维向量
v=[w0,w1,…wi,…wn]T    (19)
在这里轮廓信息不用作分类特征,因为正常的人脸图像也可能具有与敏感图像相似的轮廓信息。另外,轮廓外的非肤色区域面积也不用作分类特征,这是因为在判断敏感图像时,这一特征并不稳定。
对于图像的识别和匹配,我们采用最近邻方法,余弦相似性度量描述如下
g ( v , v i ) = arg min v i &Element; C i d ( v , v i )
d ( v , v i ) = 1 - v T v i | | v | | | | v i | | - - - ( 20 )
二值分类函数为
G(v)=g(v,v+)-g(v,v-)    (21)
其中v+和v-各代表正负模板。在识别过程中,我们首先判断待测图像的类别,然后提取其特征,将它与该类训练集中的正负样本在特征空间内进行匹配比较并采用式(21)进行判断。因为在进行特征比较之前,已经预先将图像进行了分类,所以减少了比较次数,降低了计算复杂度。整个判断过程见附图7。

Claims (7)

1.一种基于内容的图像识别方法,包括步骤:
首先对图像进行网格划分;
然后以网格各节点为初始位置进行区域生长来获取图像中各节点周围的肤色信息;
利用网格单元区域和各节点的相互投票的机制确定图像中的兴趣点和兴趣区域;
在兴趣区域和兴趣点的基础上,利用点的运动提取图像中人体躯干的轮廓;
最后,提取轮廓信息和轮廓内部中的局部信息生成特征向量对图像进行识别和性质判断。
2.根据权利要求1所述的方法,其特征在于所述区域生长包括步骤:
确定功能块;
每个功能块被分为4个子块。
3.根据权利要求2所述的方法,其特征在于所述功能块的不同生长方向有不同的权重。
4.根据权利要求1所述的方法,其特征在于所述相互投票的机制包括:
对于落在图像边界上的点均赋予0值;
对于落在图像区域内的网络节点,如果满足其周围子区域里生长区域总面积与子区域总面积比例大于或等于事先设定的阈值,则赋予1值,否则赋予0值;
区域的最终得分值由它周围角落的四个网格节点的分值和它本身的携带的值共同确定。
5.根据权利要求1所述的方法,其特征在于所述提取图像中人体躯干的轮廓包括:
检测肤色边界点,把感兴趣区域包含的感兴趣点连接起来形成一条闭合曲线;
采集落在所述闭合曲线外面但离曲线一定距离内的肤色边界点,将这些点连接起来形成另一条闭合曲线;
调整另一条闭合曲线上所有的非肤色边界点的位置,得到优化后的躯干轮廓曲线;
检测轮廓内的非肤色区域,得到局部信息。
6.按权利要求5所述的方法,其特征在于所述局部信息包括非肤色区域的面积和位置。
7.按权利要求1所述的方法,其特征在于所述对图像进行识别和性质判断包括提取如下特征:
感兴趣区域的位置几何信息;
感兴趣区域的得分及最高分的位置;
轮廓内相邻的非肤色区域之间的夹角;
轮廓内面积最大的非肤色区域的位置。
CNB2004100350849A 2004-04-23 2004-04-23 基于内容的图像识别方法 Expired - Fee Related CN1331099C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNB2004100350849A CN1331099C (zh) 2004-04-23 2004-04-23 基于内容的图像识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNB2004100350849A CN1331099C (zh) 2004-04-23 2004-04-23 基于内容的图像识别方法

Publications (2)

Publication Number Publication Date
CN1691054A CN1691054A (zh) 2005-11-02
CN1331099C true CN1331099C (zh) 2007-08-08

Family

ID=35346484

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2004100350849A Expired - Fee Related CN1331099C (zh) 2004-04-23 2004-04-23 基于内容的图像识别方法

Country Status (1)

Country Link
CN (1) CN1331099C (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100397400C (zh) * 2006-02-10 2008-06-25 华为技术有限公司 图形检索的方法
CN101030244B (zh) * 2006-03-03 2010-08-18 中国科学院自动化研究所 基于人体生理图像中排序测度特征的自动身份识别方法
CN100412884C (zh) * 2006-04-10 2008-08-20 中国科学院自动化研究所 基于局部描述子的人脸快速检测方法
JP5058575B2 (ja) * 2006-12-12 2012-10-24 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
CN101334845B (zh) * 2007-06-27 2010-12-22 中国科学院自动化研究所 一种基于轨迹序列分析和规则归纳的视频行为识别方法
CN102099833B (zh) * 2008-04-07 2016-08-10 皇家飞利浦电子股份有限公司 网格冲突避免
CN101763502B (zh) * 2008-12-24 2012-07-25 中国科学院自动化研究所 一种高效的敏感图像检测方法及其系统
US8531589B2 (en) * 2009-01-14 2013-09-10 Panasonic Corporation Image pickup device and image pickup method
CN101763634B (zh) * 2009-08-03 2011-12-14 北京智安邦科技有限公司 一种简单的目标分类方法及装置
CN101923652B (zh) * 2010-07-23 2012-05-30 华中师范大学 一种基于肤色和特征部位联合检测的色情图片识别方法
CN102609715B (zh) * 2012-01-09 2015-04-08 江西理工大学 一种结合多个兴趣点检测子的物体类识别方法
CN103065126B (zh) * 2012-12-30 2017-04-12 信帧电子技术(北京)有限公司 不同场景对人体图像再识别的方法
US9305208B2 (en) * 2013-01-11 2016-04-05 Blue Coat Systems, Inc. System and method for recognizing offensive images
CN105303152B (zh) * 2014-07-15 2019-03-22 中国人民解放军理工大学 一种人体再识别方法
CN107358150B (zh) * 2017-06-01 2020-08-18 深圳赛飞百步印社科技有限公司 物体边框识别方法、装置和高拍仪
US11140108B1 (en) 2020-05-18 2021-10-05 International Business Machines Corporation Intelligent distribution of media data in a computing environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4805223A (en) * 1985-04-22 1989-02-14 The Quantum Fund Limited Skin-pattern recognition method and device
US20030152262A1 (en) * 2002-02-11 2003-08-14 Fei Mao Method and system for recognizing and selecting a region of interest in an image
US20030179931A1 (en) * 2002-03-19 2003-09-25 Hung-Ming Sun Region-based image recognition method
JP2003308530A (ja) * 2002-04-15 2003-10-31 Canon I-Tech Inc 画像認識装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4805223A (en) * 1985-04-22 1989-02-14 The Quantum Fund Limited Skin-pattern recognition method and device
US20030152262A1 (en) * 2002-02-11 2003-08-14 Fei Mao Method and system for recognizing and selecting a region of interest in an image
US20030179931A1 (en) * 2002-03-19 2003-09-25 Hung-Ming Sun Region-based image recognition method
JP2003308530A (ja) * 2002-04-15 2003-10-31 Canon I-Tech Inc 画像認識装置

Also Published As

Publication number Publication date
CN1691054A (zh) 2005-11-02

Similar Documents

Publication Publication Date Title
CN1331099C (zh) 基于内容的图像识别方法
Zhu et al. Bag-of-visual-words scene classifier with local and global features for high spatial resolution remote sensing imagery
Srihari Automatic indexing and content-based retrieval of captioned images
CN100530222C (zh) 图像匹配方法
CN106980858A (zh) 一种语言文本检测与定位系统及应用该系统的语言文本检测与定位方法
CN109902590A (zh) 深度多视图特征距离学习的行人重识别方法
CN109670528A (zh) 面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法
CN106023065A (zh) 一种基于深度卷积神经网络的张量型高光谱图像光谱-空间降维方法
CN106354735A (zh) 一种图像中目标的检索方法和装置
CN109543602A (zh) 一种基于多视角图像特征分解的行人再识别方法
CN106021442B (zh) 一种网络新闻概要提取方法
CN103761295B (zh) 基于图片自动分类的艺术类图片的定制化特征量提取方法
CN104268593A (zh) 一种小样本情况下多稀疏表示的人脸识别方法
CN110390952A (zh) 基于双特征2-DenseNet并联的城市声音事件分类方法
CN101556600B (zh) 一种dct域上的图像检索方法
CN106469181A (zh) 一种用户行为模式分析方法及装置
CN106570183A (zh) 一种彩色图像检索和分类方法
CN106897669A (zh) 一种基于一致迭代多视角迁移学习的行人再辨识方法
CN109145971A (zh) 基于改进匹配网络模型的单样本学习方法
CN110084149A (zh) 一种基于难样本四元组动态边界损失函数的人脸验证方法
CN110414483A (zh) 一种基于深度神经网络和随机森林的人脸识别方法及系统
CN110210550A (zh) 基于集成学习策略的图像细粒度识别方法
CN108509939A (zh) 一种基于深度学习的鸟类识别方法
CN107341505A (zh) 一种基于图像显著性与Object Bank的场景分类方法
CN106295585A (zh) 一种兼顾实时性及人脸质量的过滤选择方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20070808

Termination date: 20180423

CF01 Termination of patent right due to non-payment of annual fee