CN106991370A - 基于颜色和深度的行人检索方法 - Google Patents
基于颜色和深度的行人检索方法 Download PDFInfo
- Publication number
- CN106991370A CN106991370A CN201710112871.6A CN201710112871A CN106991370A CN 106991370 A CN106991370 A CN 106991370A CN 201710112871 A CN201710112871 A CN 201710112871A CN 106991370 A CN106991370 A CN 106991370A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- depth
- feature
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于颜色和深度图像行人检索方法,其特征在于,包括步骤:a)行人检测:使用深度学习方法中的YOLO检测器从RGB图像中检测到行人的BoundingBox;b)行人分割:取深度图像中与RGB图BoundingBox对应的矩形区域,使用区域增长方法,分割出行人区域;c)行人特征提取:利用深度图像中的分割后的mask获取RGB中行人区域,使用卷积神经网络CNN提取矢量特征;d)相似度比较:计算检索输入图像特征与图像库中的特征相似度,按相似度排序返回检索结果。
Description
技术领域
本发明涉及人工智能、机器学习、视频检索、统计学等技术领域,具体涉及一种基于颜色和深度图像的行人检索方法。
背景技术
在智能化监控视频分析应用中,普通监控摄像机视频分辨率普遍较低,通过人脸信息不足以进行身份的辨别,因此采取通过比较人的外貌如衣服、裤子的相似程度来确定不同视角下拍摄的对象是否为相同人。这种方法进行人识别是基于人在短时间内不会变更自身的外貌着装的假设下进行的,跨摄像头行人检索正是基于行人的外貌着装相似程度确定行人在监控视频中出现的片段,为侦查人员提供了方面。在图像侦查的领域,跨摄像头行人检索具有重大的应用价值。
在监控摄像机场景进行行人识别步骤包括行人检测,行人分割,特征提取和相似度计算,其中困难之一在于单于通过RGB图像信息不能很好的将行人前景区域与背景区域分离。微软2010年6月份推出的Kinect摄像机同步采集深度视频数据和彩色图像视频数据。由于在现实场景中抓拍到的行人图像前景与背景是有一定距离的,本发明利用深度相机在行人分割中利用深度信息改善行人分割性能,实行跨场景的行人检索功能。
发明内容
本发明的目的在于提供了一种基于颜色和深度图像行人检索方法,其特征在于,包括步骤:a)行人检测:使用深度学习方法中的YOLO检测器从RGB图像中检测到行人的BoundingBox;b)行人分割:取深度图像中与RGB图BoundingBox对应的矩形区域,使用区域增长方法,分割出行人区域;c)行人特征提取:利用深度图像中的分割后的mask获取RGB中行人区域,使用卷积神经网络CNN提取矢量特征;d)相似度比较:计算检索输入图像特征与图像库中的特征相似度,按相似度排序返回检索结果。
优选地,所述步骤a)YOLO检测器从RGB图像中检测到行人:YOLO是一个端到端的物体检测器,使用了24个级联的卷积conv层和2个全连接fc层,其中conv层包括3*3和1*1两种Kernel,最后一个fc层即YOLO网络的输出,本发明采用标注的行人RGB图像训练出高精度的行人检测器。
优选地,所述步骤b)取深度图像中与RGB图BoundingBox对应的矩形区域,使用区域增长法在深度图像上分割行人,区域增长算法是一种基于区域与其邻近像素点的相似度判断某区域属于背景或前景。
优选地,所述区域增长算法的步骤具体包括:
步骤401)选取种子点:在深度图像中物体区域的深度值要比背景区域深度值要小很多,极小值区域刚好反应了物体与背景的区别,本发明选取深度图像的极小值区域为种子点。
步骤402)区域增长:在种子点处进行八邻域和四邻域扩展,种子增长的准则是:如果邻域的像素与种子像素深度值差的绝对值小于某个阈值,则将该像素包括种子像素所在的区域。
步骤403)增长停止:与种子点不相邻且与种子点的深度值之差大于所选的生长的阈值,则停止区域增长。
优选地,所述步骤c)提取CNN特征:参考VGG16模型构建卷积神经网络用于提取整体行人的矢量特征,整个卷积神经网络包含13个卷积层和3层全连接层,然后在最后的全连接层后加上256维的全连接层fc8作为行人特征用于检索;在训练的时候fc8层加上softmaxloss层和center loss层;训练该网络模型采用了6万ID的70万张图像,取其中10%的样本作为验证集,90%的样本作为训练集;最终使用训练后的模型提取特征。
优选地,所述步骤d)特征匹配过程包括构造检索库和检索操作两部分。
优选地,检索库构造方法为从深度相机获取大量数据,通过步骤a行人检测和步骤b行人分割的方法得到行人RGB图像,再用CNN网络提取特征将fc8层的256特征保存入库。
优选地,检索操作方法为输入手工裁剪后的待查询行人图像,直接通过CNN提取矢量特征。然后计算待查询行人的特征与库存中特征的相似度,并返回查询结果。
与现有技术相比,本发明的有益效果是:
1、本发明采用深度学习神经网络做行人检测和特征提取,得到更加精确的行人BoundingBox和更本质的特征表示,提高了检索的精度;
2、本发明利用深度信息,更好的将行人前景与背景分离,去除了背景对行人特征的干扰,进一步提高了行人检索的精确度。
应当理解,前述大体的描述和后续详尽的描述均为示例性说明和解释,并不应当用作对本发明所要求保护内容的限制。
附图说明
参考随附的附图,本发明更多的目的、功能和优点将通过本发明实施方式的如下描述得以阐明,其中:
图1示出了根据本发明的基于颜色和深度图像行人检索的流程图。
具体实施方式
通过参考示范性实施例,本发明的目的和功能以及用于实现这些目的和功能的方法将得以阐明。然而,本发明并不受限于以下所公开的示范性实施例;可以通过不同形式来对其加以实现。说明书的实质仅仅是帮助相关领域技术人员综合理解本发明的具体细节。
在下文中,将参考附图描述本发明的实施例。在附图中,相同的附图标记代表相同或类似的部件,或者相同或类似的步骤。
本发明的目的在于提供了一种基于颜色和深度图像行人检索方法,图1示出了根据本发明的基于颜色和深度图像行人检索的流程图,包括:
步骤101)行人检测:使用深度学习方法中的YOLO检测器从RGB图像中检测到行人的BoundingBox;
根据本发明的一个实施例,所述步骤a)YOLO检测器从RGB图像中检测到行人:YOLO是一个端到端的物体检测器,使用了24个级联的卷积conv层和2个全连接fc层,其中conv层包括3*3和1*1两种Kernel,最后一个fc层即YOLO网络的输出,采用标注的行人RGB图像训练出高精度的行人检测器。
步骤102)行人分割:取深度图像中与RGB图BoundingBox对应的矩形区域,使用区域增长方法,分割出行人区域;
根据本发明的一个实施例,所述步骤b)取深度图像中与RGB图BoundingBox对应的区域,使用区域增长法在深度图像上分割行人,区域增长算法是一种基于区域与其邻近像素点的相似度判断某区域属于背景或前景。具体包括:
步骤201:顺序扫描深度图获取区域极小值,设该像素为(x0,y0);
步骤202:以(x0,y0)为中心,计算(x0,y0)与八邻域像素(x,y)深度值的差,如果像素(x,y)满足增长准则,将像素(x,y)与(x0,y0)合并在同一区域内,同时将(x,y)压入堆栈;从堆栈取一像素作为(x0,y0),重复该步骤;
步骤203:从堆栈为空时,返回在到步骤201;
步骤204:取深度图没有归属的极小值,重复步骤201,202和203。当深度图中所有像素都有归属时,分割结束。
根据本发明的一个实施例,所述区域增长算法的步骤具体包括:
步骤b1)选取种子点:在深度图像中物体部分区域的深度值要比背景区域深度值要小很多,极小值区域刚好反应了物体与背景的区别,本发明选取深度图像的极小值区域为种子点。
步骤b2)区域增长:在种子点处进行八邻域和四邻域扩展,种子增长的准则是:如果邻域的像素与种子像素深度值差的绝对值小于某个阈值,则将该像素包括种子像素所在的区域。
步骤b3)增长停止:与种子点不相邻且与种子点的深度值之差大于所选的生长的闽值,则停止区域增长。
步骤103)行人特征提取:利用深度图像中的分割后的mask获取RGB中行人区域,使用卷积实施细则网络CNN特征;
根据本发明的一个实施例,所述步骤c)提取CNN特征:参考VGG16模型构建卷积神经网络用于提取整体行人的特征,整个卷积神经网络包含13个卷积层和3层全连接层,然后在最后的全连接层后加上256维的全连接层fc8作为行人特征用于检索;在训练的时候fc8层加上softmaxloss层和center loss层;训练该网络模型采用了6万ID的70万张图像,取其中10%的样本作为验证集,90%的样本作为训练集;最终使用训练后的模型提取特征。
步骤104)相似度比较:计算检索输入图像特征与图像库中的特征相似度,按相似度排序返回检索结果。
根据本发明的一个实施例,所述步骤d)特征匹配过程包括构造检索库和检索操作两部分。
根据本发明的一个实施例,检索库构造方法为从深度相机获取大量数据,通过步骤a行人检测和步骤b行人分割的方法得到行人RGB图像,再用CNN网络提取特征将fc8层的256特征保存入库。
根据本发明的一个实施例,检索操作方法为输入手工裁剪后的待查询行人图像,直接通过CNN提取特征;然后计算待查询行人的特征与库存中特征的相似度,并返回查询结果。
结合这里披露的本发明的说明和实践,本发明的其他实施例对于本领域技术人员都是易于想到和理解的。说明和实施例仅被认为是示例性的,本发明的真正范围和主旨均由权利要求所限定。
Claims (8)
1.一种基于颜色和深度图像行人检索方法,其特征在于,包括步骤:
a)行人检测:使用深度学习方法中的YOLO检测器从RGB图像中检测到行人的BoundingBox;
b)行人分割:取深度图像中与RGB图BoundingBox对应的矩形区域,使用区域增长方法,分割出行人区域;
c)行人特征提取:利用深度图像中的分割后的mask获取RGB中行人区域,使用卷积神经网络CNN提取矢量特征;
d)相似度比较:计算检索输入图像特征与图像库中的特征相似度,按相似度排序返回检索结果。
2.根据权利要求1所述的方法,其特征在于:所述步骤a)YOLO检测器从RGB图像中检测到行人:其中所述YOLO是一个端到端的物体检测器,使用了24个级联的卷积conv层和2个全连接fc层,其中所述conv层包括3*3和1*1两种Kernel,最后一个fc层即YOLO网络的输出。
3.根据权利要求1所述的方法,其特征在于:所述步骤b)取深度图像中与RGB图BoundingBox对应的矩形区域,使用区域增长法在深度图像上分割行人,所述区域增长算法是一种基于区域与其邻近像素点的相似度判断某区域属于背景或前景。
4.根据权利要求3所述的方法,其特征在于:所述区域增长算法的步骤具体包括:
步骤401)选取种子点:在深度图像中物体部分区域的深度值要比背景区域深度值小很多,极小值区域刚好反应了物体与背景的区别,本发明选取深度图像的极小值区域为种子点;
步骤402)区域增长:在种子点处进行八邻域和四邻域扩展,种子增长的准则是:如果邻域的像素与种子像素深度值差的绝对值小于某个阈值,则将该像素包括种子像素所在的区域;
步骤403)增长停止:与种子点不相邻且与种子点的深度值之差大于所选的生长的阈值,则停止区域增长。
5.根据权利要求1所述的方法,其特征在于:所述步骤c)提取CNN特征:参考VGG16模型构建卷积神经网络用于提取行人的特征,整个卷积神经网络包含13个卷积层和3层全连接层,然后在最后的全连接层后加上256维的全连接层fc8作为行人特征用于检索;在训练的时候fc8层加上softmax loss层和center loss层;训练该网络模型采用了6万ID的70万张图像,取其中10%的样本作为验证集,90%的样本作为训练集;最终使用训练后的模型提取特征。
6.根据权利要求1所述的方法,其特征在于:所述步骤d)特征匹配过程包括构造检索库和检索操作两部分。
7.根据权利要求6所述的方法,其特征在于:检索库构造方法为从深度相机获取大量数据,通过步骤a行人检测和步骤b)行人分割的方法得到行人RGB图像,再用CNN网络提取特征将fc8层的256特征保存入库。
8.根据权利要求6所述的方法,其特征在于:检索操作方法为输入手工裁剪后的待查询行人的图像,直接通过CNN提取特征;然后计算待查询行人的特征与库存中特征的相似度,并返回查询结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710112871.6A CN106991370B (zh) | 2017-02-28 | 2017-02-28 | 基于颜色和深度的行人检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710112871.6A CN106991370B (zh) | 2017-02-28 | 2017-02-28 | 基于颜色和深度的行人检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106991370A true CN106991370A (zh) | 2017-07-28 |
CN106991370B CN106991370B (zh) | 2020-07-31 |
Family
ID=59412597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710112871.6A Active CN106991370B (zh) | 2017-02-28 | 2017-02-28 | 基于颜色和深度的行人检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106991370B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358223A (zh) * | 2017-08-16 | 2017-11-17 | 上海荷福人工智能科技(集团)有限公司 | 一种基于yolo的人脸检测与人脸对齐方法 |
CN107609635A (zh) * | 2017-08-28 | 2018-01-19 | 哈尔滨工业大学深圳研究生院 | 一种基于物体检测与光流计算的物体物理速度估计方法 |
CN108537117A (zh) * | 2018-03-06 | 2018-09-14 | 哈尔滨思派科技有限公司 | 一种基于深度学习的乘客检测方法和系统 |
CN108664886A (zh) * | 2018-03-20 | 2018-10-16 | 广东电网有限责任公司清远供电局 | 一种适应变电站进出监控需求的人脸快速识别方法 |
CN108985190A (zh) * | 2018-06-28 | 2018-12-11 | 北京市商汤科技开发有限公司 | 目标识别方法和装置、电子设备、存储介质、程序产品 |
CN109325385A (zh) * | 2017-07-31 | 2019-02-12 | 株式会社理光 | 目标检测和区域分割方法、装置和计算机可读存储介质 |
CN109711437A (zh) * | 2018-12-06 | 2019-05-03 | 武汉三江中电科技有限责任公司 | 一种基于yolo网络模型的变压器部件识别方法 |
CN110163927A (zh) * | 2019-05-17 | 2019-08-23 | 温州大学 | 一种基于神经网络的单个图像重新着色方法 |
WO2021052121A1 (zh) * | 2019-09-20 | 2021-03-25 | 于毅欣 | 一种基于激光雷达和摄像头的物体识别方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999892A (zh) * | 2012-12-03 | 2013-03-27 | 东华大学 | 基于区域遮罩的深度图像与rgb图像的智能融合方法 |
CN103248906A (zh) * | 2013-04-17 | 2013-08-14 | 清华大学深圳研究生院 | 一种双目立体视频序列的深度图获取方法与系统 |
CN103561258A (zh) * | 2013-09-25 | 2014-02-05 | 同济大学 | 一种Kinect深度视频时空联合修复方法 |
CN105894502A (zh) * | 2016-03-30 | 2016-08-24 | 浙江大学 | 基于超图模型的rgbd图像显著性检测方法 |
CN106447677A (zh) * | 2016-10-12 | 2017-02-22 | 广州视源电子科技股份有限公司 | 图像处理方法和装置 |
-
2017
- 2017-02-28 CN CN201710112871.6A patent/CN106991370B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999892A (zh) * | 2012-12-03 | 2013-03-27 | 东华大学 | 基于区域遮罩的深度图像与rgb图像的智能融合方法 |
CN103248906A (zh) * | 2013-04-17 | 2013-08-14 | 清华大学深圳研究生院 | 一种双目立体视频序列的深度图获取方法与系统 |
CN103561258A (zh) * | 2013-09-25 | 2014-02-05 | 同济大学 | 一种Kinect深度视频时空联合修复方法 |
CN105894502A (zh) * | 2016-03-30 | 2016-08-24 | 浙江大学 | 基于超图模型的rgbd图像显著性检测方法 |
CN106447677A (zh) * | 2016-10-12 | 2017-02-22 | 广州视源电子科技股份有限公司 | 图像处理方法和装置 |
Non-Patent Citations (1)
Title |
---|
JUDY HOFFMAN 等: "Cross-Modal Adaptation for RGB-D Detection", 《2016 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA)》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325385A (zh) * | 2017-07-31 | 2019-02-12 | 株式会社理光 | 目标检测和区域分割方法、装置和计算机可读存储介质 |
CN107358223A (zh) * | 2017-08-16 | 2017-11-17 | 上海荷福人工智能科技(集团)有限公司 | 一种基于yolo的人脸检测与人脸对齐方法 |
CN107358223B (zh) * | 2017-08-16 | 2021-06-22 | 上海荷福人工智能科技(集团)有限公司 | 一种基于yolo的人脸检测与人脸对齐方法 |
CN107609635A (zh) * | 2017-08-28 | 2018-01-19 | 哈尔滨工业大学深圳研究生院 | 一种基于物体检测与光流计算的物体物理速度估计方法 |
CN108537117A (zh) * | 2018-03-06 | 2018-09-14 | 哈尔滨思派科技有限公司 | 一种基于深度学习的乘客检测方法和系统 |
CN108537117B (zh) * | 2018-03-06 | 2022-03-11 | 哈尔滨思派科技有限公司 | 一种基于深度学习的乘客检测方法和系统 |
CN108664886A (zh) * | 2018-03-20 | 2018-10-16 | 广东电网有限责任公司清远供电局 | 一种适应变电站进出监控需求的人脸快速识别方法 |
CN108985190A (zh) * | 2018-06-28 | 2018-12-11 | 北京市商汤科技开发有限公司 | 目标识别方法和装置、电子设备、存储介质、程序产品 |
CN109711437A (zh) * | 2018-12-06 | 2019-05-03 | 武汉三江中电科技有限责任公司 | 一种基于yolo网络模型的变压器部件识别方法 |
CN110163927A (zh) * | 2019-05-17 | 2019-08-23 | 温州大学 | 一种基于神经网络的单个图像重新着色方法 |
CN110163927B (zh) * | 2019-05-17 | 2023-04-07 | 温州大学 | 一种基于神经网络的单个图像重新着色方法 |
WO2021052121A1 (zh) * | 2019-09-20 | 2021-03-25 | 于毅欣 | 一种基于激光雷达和摄像头的物体识别方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106991370B (zh) | 2020-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106991370A (zh) | 基于颜色和深度的行人检索方法 | |
CN109740413B (zh) | 行人重识别方法、装置、计算机设备及计算机存储介质 | |
CN108510467B (zh) | 基于深度可变形卷积神经网络的sar图像目标识别方法 | |
CN109919981A (zh) | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 | |
CN105046206B (zh) | 基于视频中运动先验信息的行人检测方法及装置 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN104376334B (zh) | 一种多尺度特征融合的行人比对方法 | |
CN107563349A (zh) | 一种基于VGGNet的人数估计方法 | |
CN111507296A (zh) | 基于无人机遥感与深度学习的违章建筑智能化提取方法 | |
CN107944416A (zh) | 一种通过视频进行真人验证的方法 | |
CN109271932A (zh) | 基于颜色匹配的行人再识别方法 | |
CN109344842A (zh) | 一种基于语义区域表达的行人重识别方法 | |
CN112712051B (zh) | 对象跟踪方法、装置、计算机设备及存储介质 | |
CN112509009B (zh) | 一种基于自然语言信息辅助的目标追踪方法 | |
CN111460884A (zh) | 基于人体跟踪的多人脸识别方法 | |
CN109376677A (zh) | 一种基于外形-运动双流信息融合的视频行为检测方法 | |
CN104143077A (zh) | 基于图像的行人目标检索方法和系统 | |
CN116071424A (zh) | 基于单目视觉的果实空间坐标定位方法 | |
CN109325407A (zh) | 基于f-ssd网络滤波的光学遥感视频目标检测方法 | |
CN107123126A (zh) | 一种人流运动场景热度估计方法 | |
CN104504162B (zh) | 一种基于机器人视觉平台的视频检索方法 | |
CN106980864A (zh) | 一种基于支持样本间接式的行人再识别方法 | |
CN104463896A (zh) | 基于核相似区分布特性的图像角点检测方法及系统 | |
Sinha et al. | Image retrieval using landmark indexing for indoor navigation | |
CN104199950B (zh) | 一种基于图像相似度快速匹配的学术论文搜索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |