CN106980864B - 一种基于支持样本间接式的行人再识别方法 - Google Patents
一种基于支持样本间接式的行人再识别方法 Download PDFInfo
- Publication number
- CN106980864B CN106980864B CN201710209772.XA CN201710209772A CN106980864B CN 106980864 B CN106980864 B CN 106980864B CN 201710209772 A CN201710209772 A CN 201710209772A CN 106980864 B CN106980864 B CN 106980864B
- Authority
- CN
- China
- Prior art keywords
- image
- width
- pedestrian
- training
- training image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于支持样本间接式的行人再识别方法,包括以下步骤:对采集的两个无交集摄像头视频进行预处理,获得需要的训练样本图像,再利用密集颜色直方图和密集SIFT相结合的方法提取图像的特征,并通过聚类的方法分别得到两个不同摄像头下的支持样本,当要对来自不同摄像头的行人进行匹配时,在距离测度的基础上利用支持样本分别判别出其所在摄像头下的行人类别,通过类别的对比判断是否为同一行人。本发明通过不同摄像头下行人图片直接匹配,有效解决了不同摄像头带来的视角、光照和尺度问题,提高了行人再识别的准确率,增强了行人再识别算法的鲁棒性。
Description
技术领域
本发明属于智能视频监控技术领域,具体涉及一种基于支持样本间接式的行人再识别方法。
背景技术
行人再识别是在非重叠区域的监控多摄像头下对行人进行匹配,即检索某个摄像头下的行人目标是否出现在其他的摄像头下。行人再识别在社会公共安全领域有着重要的应用,然而不同监控摄像头之间差异,导致了视角、光照和尺度变化,使得行人再识别中存在很大的挑战。如何建立一种高效准确针的再识别方法,研究人员进行了相关的研究。目前行人再识别的研究主要集中在特征表示法和距离测度的学习,近几年来深度学习也开始应用于行人再识别当中。
然而由于视角、光照和尺度变化等问题,上述方法都没有很好的解决行人再识别。使得行人再识别的准确率不是非常的高。
发明内容
本发明是为了克服现有技术的不足之处,提供一种基于支持样本间接式的行人再识别方法,以期能有效的克服行人再识别中光照、视角和尺度等问题,获得较好再识别性能,从而有效提高行人再识别率,增强行人再识别算法的鲁棒性。
本发明为了解决技术问题采用如下技术方案:
本发明一种支持样本间接式的行人再识别方法的特点是按如下步骤进行:
步骤1、利用拍摄区域无交集的两个摄像头Camera_P和Camera_Q分别获取行人训练图像集,记为行人训练图像集P={p1,p2,…,pi,…,pN}和行人匹配图像集Q={q1,q2,…,qi,…,qN};且第i幅训练图像pi中的行人与第i幅匹配图像qi中的行人为同一个人;1≤i≤N;
步骤2、特征提取
将所述第i幅训练图像pi划分为U×V个小块;并提取所述第i幅训练图像pi中第m×n个小块的颜色直方图特征和SIFT特征后进行级联,得到所述第i幅训练图像pi中第m×n个小块的颜色SIFT特征,记为从而得到U×V个小块的颜色SIFT特征作为所述第i幅训练图像pi的密集颜色SIFT特征;
同理可得,第i幅匹配图像qi的密集颜色SIFT特征;
步骤3、支持样本的选取
步骤3.1、从所述行人训练图像集P中选取任意第j幅训练图像pj,i≠j;
利用欧式距离计算所述第i幅训练图像pi中第m×n个小块颜色SIFT特征与所述行人训练图像集P中任意第k幅训练图像pk中搜索域为T的所有小块的颜色SIFT特征的相似性得分,并选择所述搜索域T中所有小块的相似性得分最大值作为所述第i幅训练图像pi中第m×n个小块与第k训练图像pk的得分,从而得到所述第i幅训练图像pi中U×V个小块与第k幅训练图像pk的总得分进而得到所述第i幅训练图像pi中U×V个小块与N-2幅训练图像的总得分所述搜索域T的范围为u1≤m≤u2,1≤n≤V;k≠i;k≠j;同理可得所述第j幅训练图像pj中U×V个小块与N-2幅训练图像的总得分
同理可得所述第i幅匹配图像qi中U×V个小块与N-2幅匹配图像的总得分以及第j幅匹配图像qj中U×V个小块与N-2幅匹配图像的总得分
步骤3.2、计算所述第i幅训练图像pi的总得分与第j幅训练图像pj的总得分的相关系数以及第i幅匹配图像qi的总得分与第j幅匹配图像qj的总得分的相关系数并利用式(1)获得相关系数乘积
若所设定的阈值δ,则表示所述第i幅训练图像pi与第j幅训练图像pj相似,且第i幅匹配图像qi与第j幅匹配图像qj相似,并删除所述第i幅训练图像pi与第i幅匹配图像qi或者删除第j幅训练图像pj与第j幅匹配图像qj;若所设定的阈值δ,则表示所述第i幅训练图像pi与第j幅训练图像pj不相似,且第i幅匹配图像qi与第j幅匹配图像qj不相似,并均保留;
步骤3.3、重复步骤3.1-步骤3.2,对所述行人训练图像集P和行人匹配图像集Q进行处理,从而得到训练支持样本集P′和匹配支持样本集Q′;
步骤4、行人再识别
步骤4.1、利用所述两个摄像头Camera_P和Camera_Q分别获取一幅行人测试图像pt和qt
步骤4.2、根据步骤3.1,计算行人测试图像pt与训练支持样本集P′中所有训练支持样本的总得分,并选取得分最高的训练支持样本p′max作为行人测试图像pt在训练支持样本集P′中的代表图像;同理,计算行人测试图像qt在匹配支持样本集Q′中的代表图像q′max;
步骤4.3、判断训练支持样本集P′中的代表图像p′max的序号与匹配支持样本集Q′中的代表图像q′max的序号是否相同,若相同,表示行人测试图像pt和qt为同一个人,否则,表示行人测试图像pt和qt不为同一个人。
与已有的技术相比,本发明有益效果体现在:
1、本发明采用了间接式的行人再识别的方法。不同摄像头由于位置、配置和采光度的不同,就造成不同摄像头拍摄到行人之间存在视角、光照和尺度变化等问题。已有的技术都是直接通过对不同摄像头下的行人进行直接匹配。上述问题的存在,使得这种直接匹配的方法无法有效的提高准确率。而间接式的行人再识别方法,首先通过聚类的方法分别提取不同摄像头下的支持样本,当要对来自不同摄像头的行人进行匹配时,在距离测度的基础上利用支持样本分别判别出其所在摄像头下的行人类别,通过类别的对比判断是否为同一行人。该方法避免了不同摄像头下行人图片直接匹配,有效解决了不同摄像头带来的视角、光照和尺度问题。
2、本发明采用了密集颜色特征和密集SIFT特征相结合的方式。颜色特征可以有效的利用了行人外貌信息。行人再识别中外貌是一张很有用的信息,可以帮助人们快速对行人进行识别。SIFT特征可以作为颜色直方图特征的互补特征传统的SIFT方法可以检测到图片中的兴趣点,该算法检测到的兴趣点不仅具有空间稳定性,而且有尺度不变性和旋转不变性。
3、本发明采用了支持样本的选取。通过对不同摄像头下的行人样本库学习,得到每个样本库中的支持样本。由于视角、光照和尺度变化等问题,使得同一个行人差别很大,而有时不同的行人会呈现出相似性。支持样本就是有效的解决了这种干扰,减少了行人样本库中的冗余性,提高了行人再识别的准确率。
附图说明
图1为本发明的行人再识别流程图;
图2为本发明的颜色直方图特征示意图;
图3为本发明的SIFT特征提取示意图;
图4为本发明的dColorSIFT特征提取示意图。
具体实施方式
本实施例中,如图1所示,一种支持样本间接式的行人再识别方法包括以下过程:首先对采集的不同摄像头视频进行预处理,获得需要的样本图像。通过聚类的方法学习得到摄像头样本的支持样本。在支持样本的基础上通过间接式行人匹配的方法,可以对不同摄像头下的行人进行匹配。具体地说,是按如下步骤进行:
步骤1、利用拍摄区域无交集的两个摄像头Camera_P和Camera_Q分别获取行人训练图像集,记为行人训练图像集P={p1,p2,…,pi,…,pN}和行人匹配图像集Q={q1,q2,…,qi,…,qN};且第i幅训练图像pi中的行人与第i幅匹配图像qi中的行人为同一个人;1≤i≤N;
步骤2、特征提取
将所述第i幅训练图像pi划分为U×V个小块;并提取所述第i幅训练图像pi中第m×n个小块的颜色直方图特征和SIFT特征后进行级联,得到所述第i幅训练图像pi中第m×n个小块的颜色SIFT特征,记为从而得到U×V个小块的颜色SIFT特征作为所述第i幅训练图像pi的密集颜色SIFT特征;
同理可得,第i幅匹配图像qi的密集颜色SIFT特征;
将每一个行人图片分割成U×V个小块,对于每一小块分别提取其LAB颜色直方图。为了能够与SIFT特征相结合,所有的直方图都要进行L2标准化。获得密集颜色直方图特征如图2所示。
颜色模型(Lab)基于人对颜色的感觉。Lab中的数值描述正常实例的人能够看到的所有的颜色。Lab色彩模型是由明度(L)和有关色彩的a,b三个要素组成。L表示明度,a表示从洋红色到绿色的范围。b表示黄色到蓝色的范围。颜色直方图在许多图像检索系统中被广泛采用的颜色特征。它描述的是不同色彩在整幅图像中所占的比例。
SIFT,即尺度不变特征变换,是用于图像处理领域的一种描述。这种描述具有尺度不变性,可在图像中检测出关键点,是一种局部特征描述子。SIFT特征是基于物体上的一些局部外观的兴趣点而与影像的大小和旋转无关。对于光线、噪声、微视角改变的容忍度也很高。
对每一个行人图片分割成的一系列局部小块分别提取SIFT特征,得到的特征为128维。同样SIFT特征也要进行L2标准化。如图3所示。注意小块的大小为10*10像素,L,A,B颜色直方图分别设置为32维。对于SIFT特征,L,A,B通道都要进行提取,最后得到的SIFT特征大小为128*3维。最终,我们得到的每一小块的特征大小为32*3+128*3=480。如图4所示。
步骤3、支持样本的选取
步骤3.1、从所述行人训练图像集P中选取任意第j幅训练图像pj,i≠j;
利用欧式距离计算所述第i幅训练图像pi中第m×n个小块颜色SIFT特征与所述行人训练图像集P中任意第k幅训练图像pk中搜索域为T的所有小块的颜色SIFT特征的相似性得分,并选择所述搜索域T中所有小块的相似性得分最大值作为所述第i幅训练图像pi中第m×n个小块与第k训练图像pk的得分,从而得到所述第i幅训练图像pi中U×V个小块与第k幅训练图像pk的总得分进而得到所述第i幅训练图像pi中U×V个小块与N-2幅训练图像的总得分所述搜索域T的范围为u1≤m≤u2,1≤n≤V;k≠i;k≠j;同理可得所述第j幅训练图像pj中U×V个小块与N-2幅训练图像的总得分
同理可得所述第i幅匹配图像qi中U×V个小块与N-2幅匹配图像的总得分以及第j幅匹配图像qj中U×V个小块与N-2幅匹配图像的总得分
欧式距离是一个通常采用的距离定义,指在m维空间中两个点之间的真实距离。我们用欧式距离计算图片特征之间的距离,来表示图片之间的相似性,根据相似性的得分结果,判断是否为同一个行人。我们利用高斯函数将距离值转换成相似性的得分:
步骤3.2、计算所述第i幅训练图像pi的总得分与第j幅训练图像pj的总得分的相关系数以及第i幅匹配图像qi的总得分与第j幅匹配图像qj的总得分的相关系数并利用式(1)获得相关系数乘积
若所设定的阈值δ,则表示所述第i幅训练图像pi与第j幅训练图像pj相似,且第i幅匹配图像qi与第j幅匹配图像qj相似,并删除所述第i幅训练图像pi与第i幅匹配图像qi或者删除第j幅训练图像pj与第j幅匹配图像qj;若所设定的阈值δ,则表示所述第i幅训练图像pi与第j幅训练图像pj不相似,且第i幅匹配图像qi与第j幅匹配图像qj不相似,并均保留;
权值δ直接影响支持样本的选取结果,经过实验证明的取值范围为0.3~0.5最为合适;
步骤3.3、重复步骤3.1-步骤3.2,对所述行人训练图像集P和行人匹配图像集Q进行处理,从而得到训练支持样本集P′和匹配支持样本集Q′;
步骤4、行人再识别
步骤4.1、利用所述两个摄像头Camera_P和Camera_Q分别获取一幅行人测试图像pt和qt
步骤4.2、根据步骤3.1,计算行人测试图像pt与训练支持样本集P′中所有训练支持样本的总得分,并选取得分最高的训练支持样本p′max作为行人测试图像pt在训练支持样本集P′中的代表图像;同理,计算行人测试图像qt在匹配支持样本集Q′中的代表图像q′max;
步骤4.3、判断训练支持样本集P′中的代表图像p′max的序号与匹配支持样本集Q′中的代表图像q′max的序号是否相同,若相同,表示行人测试图像pt和qt为同一个人,否则,表示行人测试图像pt和qt不为同一个人。
Claims (1)
1.一种支持样本间接式的行人再识别方法,其特征是按如下步骤进行:
步骤1、利用拍摄区域无交集的两个摄像头Camera_P和Camera_Q分别获取行人训练图像集,记为行人训练图像集P={p1,p2,…,pi,…,pN}和行人匹配图像集Q={q1,q2,…,qi,…,qN};且第i幅训练图像pi中的行人与第i幅匹配图像qi中的行人为同一个人;1≤i≤N;
步骤2、特征提取
将所述第i幅训练图像pi划分为U×V个小块;并提取所述第i幅训练图像pi中第m×n个小块的颜色直方图特征和SIFT特征后进行级联,得到所述第i幅训练图像pi中第m×n个小块的颜色SIFT特征,记为从而得到U×V个小块的颜色SIFT特征作为所述第i幅训练图像pi的密集颜色SIFT特征;
同理可得,第i幅匹配图像qi的密集颜色SIFT特征;
步骤3、支持样本的选取
步骤3.1、从所述行人训练图像集P中选取任意第j幅训练图像pj,i≠j;
利用欧式距离计算所述第i幅训练图像pi中第m×n个小块颜色SIFT特征与所述行人训练图像集P中任意第k幅训练图像pk中搜索域为T的所有小块的颜色SIFT特征的相似性得分,并选择所述搜索域T中所有小块的相似性得分最大值作为所述第i幅训练图像pi中第m×n个小块与第k训练图像pk的得分,从而得到所述第i幅训练图像pi中U×V个小块与第k幅训练图像pk的总得分进而得到所述第i幅训练图像pi中U×V个小块与N-2幅训练图像的总得分所述搜索域T的范围为u1≤m≤u2,1≤n≤V;k≠i;k≠j;同理可得所述第j幅训练图像pj中U×V个小块与N-2幅训练图像的总得分
同理可得所述第i幅匹配图像qi中U×V个小块与N-2幅匹配图像的总得分以及第j幅匹配图像qj中U×V个小块与N-2幅匹配图像的总得分
步骤3.2、计算所述第i幅训练图像pi的总得分与第j幅训练图像pj的总得分的相关系数以及第i幅匹配图像qi的总得分与第j幅匹配图像qj的总得分的相关系数并利用式(1)获得相关系数乘积
若则表示所述第i幅训练图像pi与第j幅训练图像pj相似,且第i幅匹配图像qi与第j幅匹配图像qj相似,并删除所述第i幅训练图像pi与第i幅匹配图像qi或者删除第j幅训练图像pj与第j幅匹配图像qj;若则表示所述第i幅训练图像pi与第j幅训练图像pj不相似,且第i幅匹配图像qi与第j幅匹配图像qj不相似,并均保留;
步骤3.3、重复步骤3.1-步骤3.2,对所述行人训练图像集P和行人匹配图像集Q进行处理,从而得到训练支持样本集P′和匹配支持样本集Q′;
步骤4、行人再识别
步骤4.1、利用所述两个摄像头Camera_P和Camera_Q分别获取一幅行人测试图像pt和qt
步骤4.2、根据步骤3.1,计算行人测试图像pt与训练支持样本集P′中所有训练支持样本的总得分,并选取得分最高的训练支持样本p′max作为行人测试图像pt在训练支持样本集P′中的代表图像;同理,计算行人测试图像qt在匹配支持样本集Q′中的代表图像q′max;
步骤4.3、判断训练支持样本集P′中的代表图像p′max的序号与匹配支持样本集Q′中的代表图像q′max的序号是否相同,若相同,表示行人测试图像pt和qt为同一个人,否则,表示行人测试图像pt和qt不为同一个人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710209772.XA CN106980864B (zh) | 2017-03-31 | 2017-03-31 | 一种基于支持样本间接式的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710209772.XA CN106980864B (zh) | 2017-03-31 | 2017-03-31 | 一种基于支持样本间接式的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106980864A CN106980864A (zh) | 2017-07-25 |
CN106980864B true CN106980864B (zh) | 2019-07-19 |
Family
ID=59343557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710209772.XA Active CN106980864B (zh) | 2017-03-31 | 2017-03-31 | 一种基于支持样本间接式的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106980864B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446737B (zh) * | 2018-03-21 | 2022-07-05 | 百度在线网络技术(北京)有限公司 | 用于识别对象的方法和装置 |
CN108960331A (zh) * | 2018-07-10 | 2018-12-07 | 重庆邮电大学 | 一种基于行人图像特征聚类的行人再识别方法 |
CN113096162B (zh) * | 2021-04-21 | 2022-12-13 | 青岛海信智慧生活科技股份有限公司 | 一种行人识别跟踪方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102810159A (zh) * | 2012-06-14 | 2012-12-05 | 西安电子科技大学 | 基于surf高效匹配核的人体检测方法 |
CN103049751A (zh) * | 2013-01-24 | 2013-04-17 | 苏州大学 | 一种改进的加权区域匹配高空视频行人识别方法 |
CN102609686B (zh) * | 2012-01-19 | 2014-03-12 | 宁波大学 | 一种行人检测方法 |
CN103679142A (zh) * | 2013-12-02 | 2014-03-26 | 宁波大学 | 一种基于空间约束的目标人体识别方法 |
CN103839084A (zh) * | 2014-03-12 | 2014-06-04 | 湖州师范学院 | 一种应用于行人再识别的多核支持向量机多示例学习算法 |
CN106056159A (zh) * | 2016-06-03 | 2016-10-26 | 西安电子科技大学 | 基于Fisher Vector的图像精细分类方法 |
-
2017
- 2017-03-31 CN CN201710209772.XA patent/CN106980864B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102609686B (zh) * | 2012-01-19 | 2014-03-12 | 宁波大学 | 一种行人检测方法 |
CN102810159A (zh) * | 2012-06-14 | 2012-12-05 | 西安电子科技大学 | 基于surf高效匹配核的人体检测方法 |
CN103049751A (zh) * | 2013-01-24 | 2013-04-17 | 苏州大学 | 一种改进的加权区域匹配高空视频行人识别方法 |
CN103679142A (zh) * | 2013-12-02 | 2014-03-26 | 宁波大学 | 一种基于空间约束的目标人体识别方法 |
CN103839084A (zh) * | 2014-03-12 | 2014-06-04 | 湖州师范学院 | 一种应用于行人再识别的多核支持向量机多示例学习算法 |
CN106056159A (zh) * | 2016-06-03 | 2016-10-26 | 西安电子科技大学 | 基于Fisher Vector的图像精细分类方法 |
Non-Patent Citations (3)
Title |
---|
Probabilistic matching pair selection for SURF-based person re-identification;Mohamed Ibn Khedher 等;《Biometrics Special Interest Group》;20121231;第1-6页 |
基于耦合特征空间学习的行人再识别;蒋璐玥;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170115;第2017年卷(第01期);第I138-474页 |
基于视觉显著特征分析的行人再识别方法研究;周保亮;《中国优秀硕士学位论文全文数据库 信息科技辑》;20161015;第2016年卷(第10期);第I138-447页 |
Also Published As
Publication number | Publication date |
---|---|
CN106980864A (zh) | 2017-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bak et al. | Person re-identification using spatial covariance regions of human body parts | |
CN104598883B (zh) | 一种多摄像机监控网络中目标再识别的方法 | |
Baysal et al. | Recognizing human actions using key poses | |
CN103679142B (zh) | 一种基于空间约束的目标人体识别方法 | |
Hu et al. | Exploring structural information and fusing multiple features for person re-identification | |
CN106548139B (zh) | 一种行人重识别方法 | |
CN102663411B (zh) | 一种目标人体识别方法 | |
CN106991370B (zh) | 基于颜色和深度的行人检索方法 | |
CN109271932A (zh) | 基于颜色匹配的行人再识别方法 | |
CN102521616B (zh) | 基于稀疏表示的行人检测方法 | |
CN106295532B (zh) | 一种视频图像中的人体动作识别方法 | |
CN104794451B (zh) | 基于分块匹配结构的行人比对方法 | |
WO2021000829A1 (zh) | 多维度身份信息识别方法、装置、计算机设备及存储介质 | |
CN109344842A (zh) | 一种基于语义区域表达的行人重识别方法 | |
CN106980864B (zh) | 一种基于支持样本间接式的行人再识别方法 | |
CN103325122A (zh) | 基于双向排序的行人检索方法 | |
CN103996046A (zh) | 基于多视觉特征融合的人员识别方法 | |
Bouma et al. | Re-identification of persons in multi-camera surveillance under varying viewpoints and illumination | |
Bhuiyan et al. | Person re-identification by discriminatively selecting parts and features | |
Halstead et al. | Locating people in video from semantic descriptions: A new database and approach | |
CN102495998A (zh) | 基于视觉选择性注意计算模型的静态目标检测方法 | |
Zhang et al. | Citrus canker detection based on leaf images analysis | |
Hu et al. | Fast face detection based on skin color segmentation using single chrominance Cr | |
Zhang et al. | Iris image classification based on color information | |
Ren et al. | A novel scene text detection algorithm based on convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210811 Address after: 230001 1101, building B, Xiangfeng Creative Park, 211 Xiangzhang Avenue, Hefei, Anhui Patentee after: Anhui Keda Qingtian Technology Co.,Ltd. Address before: Tunxi road in Baohe District of Hefei city of Anhui Province, No. 193 230009 Patentee before: Hefei University of Technology |
|
TR01 | Transfer of patent right |