CN110738099A - 一种基于自适应双分支网络的低分辨率行人再识别方法 - Google Patents
一种基于自适应双分支网络的低分辨率行人再识别方法 Download PDFInfo
- Publication number
- CN110738099A CN110738099A CN201910813764.5A CN201910813764A CN110738099A CN 110738099 A CN110738099 A CN 110738099A CN 201910813764 A CN201910813764 A CN 201910813764A CN 110738099 A CN110738099 A CN 110738099A
- Authority
- CN
- China
- Prior art keywords
- resolution
- pedestrian
- network
- branch
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 239000013598 vector Substances 0.000 claims abstract description 20
- 230000003044 adaptive effect Effects 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 5
- 125000004122 cyclic group Chemical group 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自适应双分支网络的低分辨率行人再识别方法,包括步骤:(1)获取低分辨率行人图片,输入到双分支网络,双分支网络包括超分辨率网络分支和生成对抗网络分支,低分辨率行人图片通过双分支网络后得到两张高分辨率图像;(2)将上述两个高分辨率图像进行融合,得到超分辨率图像;(3)将超分辨率图像输入到特征提取网络,输出行人特征向量;(4)将行人特征向量与目标数据集中行人图片的特征向量进行比对,根据相似度确定低分辨率行人图片中行人的身份。本发明结合自适应双分支网络和特征提取网络,进行端到端训练,具有超分辨率图片视觉效果好、行人再识别准确率高的特点,具有很强的应用价值。
Description
技术领域
本发明属于计算机视觉与模式识别领域,特别涉及一种基于自适应双分支 网络的低分辨率行人再识别方法。
背景技术
行人再识别技术(re-id)的作用是在多摄像头无重叠视频监控环境下,通过 一系列的图像技术进行跨摄像头行人匹配,即判断某个摄像头的监控视频中出 现的人物是否在其它摄像头的监控视频中出现过。
主流的行人再识别方法为基于深度学习提取行人特征,主要关注跨摄像头 图片存在的光照变化、视角变化和遮挡等问题,往往忽略了低分辨率的问题。 低分辨率问题一般由远距离拍摄和图片质量差等问题引起,会使行人再识别方 法的准确率急剧下降。
目前存在一些针对低分辨率的行人再识别方法,其主要思路是:先把低分 辨率图片输入到超分辨率网络或者生成对抗网络,得到高分辨率图片,再把高 分辨率图片输入到特征提取网络中获得行人特征。这些做法取得了一定的效果, 但是超分辨率网络生成的图片普遍比较模糊,而生成对抗网络生成的图片虽然 有清晰的细节,但是会引入错误的细节。这两种网络的缺陷均不利于特征提取 网络提取到有效的特征。因此,这些方法提高了输入图像的质量,但是没有达 到很好的效果,其识别结果差强人意。
发明内容
为了克服现有超分辨率方法会生成模糊图片而生成对抗网络会生成错误细 节的缺点,本发明提出了一种基于自适应双分支网络的低分辨率行人再识别方 法,该方法结合自适应双分支网络和特征提取网络,进行端到端训练,具有超 分辨率图片视觉效果好,行人再识别准确率高的特点,具有很强的应用价值。
该方法通过超分辨率网络生成整体重构图像;通过生成对抗网络生成细节 清晰的图像,再融合两张生成图像,达到结合超分辨率网络和生成对抗网络的 优点的目的,能显著提高低分辨率行人再识别的准确率。
本发明的目的通过以下的技术方案实现:一种基于自适应双分支网络的低 分辨率行人再识别方法,包括步骤:
(1)获取低分辨率行人图片,输入到双分支网络,所述双分支网络包括超 分辨率网络(SR)分支和生成对抗网络(GAN)分支,低分辨率行人图片通过 超分辨率网络分支生成能反应行人整体形状的第一高分辨率图像,通过生成对 抗网络分支生成细节清晰的第二高分辨率图像;
(2)将上述第一高分辨率图像和第二高分辨率图像进行融合,得到一张超 分辨率图像;
(3)将超分辨率图像输入到特征提取网络,输出行人特征向量;
(4)将行人特征向量与目标数据集中行人图片的特征向量进行比对,计算 相似度,根据相似度确定低分辨率行人图片中行人的身份。
优选的,所述步骤(1)中,超分辨率网络分支由6个残差块组成,其损失 函数是L1损失函数:
优选的,所述步骤(1)中,生成对抗网络分支包含2个生成器和2个判别 器组成,该分支的损失函数由生成对抗损失和循环损失(cycle loss)组成;每个 生成器都由6个残差块组成,每个判别器的网络结构都和Patch-GAN的判别器 相同。
优选的,所述步骤(2)中,将第一高分辨率图像和第二高分辨率图像进行 融合,步骤是:在超分辨率网络分支和生成对抗网络分支之后分别设置两个卷 积层,两个卷积层的权重以自适应学习的方式获得,如下:
对融合图片和目标数据集中原始高分辨率图片计算L1损失,该损失用于训 练模型;
第一高分辨率图像和第二高分辨率图像分别经过对应的卷积层,然后将两 个卷积层输出的结果相加,即得到超分辨率图像。得到的超分辨率图像既有行 人整体形状,又有行人细节,融合了两个分支所得到的高分辨率图像的优点。
优选的,所述步骤(3)中,特征提取网络使用ResNet50,把倒数第2层的 值作为特征,得到512维的行人特征向量。
优选的,所述步骤(4)中,使用欧氏距离计算行人特征向量和目标数据集 中行人图片的特征向量的特征相似度,选取相似度最高的结果作为匹配输出, 将目标数据集中行人的身份作为识别结果。
本发明与现有技术相比,具有如下优点和有益效果:
本发明构建一双分支网络,该双分支网络包括超分辨率网络分支和生成对 抗网络分支,对低分辨率行人图片同时使用超分辨率网络和生成对抗网络进行 超分辨率,并使用ResNet50作为特征提取网络,进行端到端训练。结合了超分 辨率网络有利于生成准确的高分辨率图片和生成对抗网络有利于生成清晰的图 片细节的优点,不仅能提高生成的高分辨率图片的视觉效果,而且有利于特征 提取网络提取到更有利于识别的行人特征,显著提高低分辨率行人再识别的准 确率。
附图说明
图1是本发明的流程图。
图2是本发明的生成对抗网络分支的网络结构图。
图3是本发明图片融合部分的网络结构图。
图4是本发明在Market1501数据集上的生成图片效果。
图5是本发明在CUHK03数据集上的生成图片效果。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发 明做进一步的详细说明。
本实施例提供一种针对低分辨率图片的行人再识别方法,该方法建立一自 适应双分支网络,该网络融合了现有超分辨率方法和生成对抗网络方法,通过 该网络可以克服超分辨率方法会生成模糊图片而生成对抗网络会生成错误细节 的缺点,可以通过超分辨率网络生成整体重构图像,通过生成对抗网络生成细 节清晰的图像,再融合两张生成的图像,达到结合超分辨率网络和生成对抗网 络的优点的目的,能显著提高低分辨率行人再识别的准确率。下面结合图1,对 各个步骤进行具体说明。
S1、通过超分辨率网络分支得到第一高分辨率图像。
本实施例中,超分辨率网络分支由6个卷积块构成,有利于生成准确但模 糊的高分辨率行人图片,其损失函数是L1损失:
S2、通过生成对抗网络分支生成第二高分辨率图像。
图2是本实施例的生成对抗网络分支的网络结构图,该分支由两个生成器 和两个判别器组成。GL2H(低到高生成器)和GH2L(高到低生成器)代表两个 生成器,每个生成器都由6个残差块组成,DH(高判别器)和DL(低判别器) 代表两个判别器,每个判别器的网络结构都和Patch-GAN的判别器相同。该分 支的损失函数由生成对抗损失和循环损失(cycle loss)组成。通过该生成对抗网 络分支生成的第二高分辨率图像带有更多清晰细节。
生成对抗损失如下:
cycle损失如下:
S3、对第一高分辨率图像和第二高分辨率图像进行融合,得到一张超分辨 率图像。
参见图3,对第一高分辨率图像和第二高分辨率图像进行融合的过程是使用 两个卷积层对两个分支生成的两张高分辨率图片进行融合,这里卷积层的权重 以自适应学习的方式获得,如下:
对融合图片和目标数据集中原始高分辨率图片计算L1损失,该损失用于训 练模型。
第一高分辨率图像经过卷积核SR,第二高分辨率图像经过卷积核GAN,然 后将两个卷积层的输出结果相加,得到融合后的既有行人整体形状,又有行人 细节的超分辨率图像。
S4、将超分辨率图像输入到特征提取网络,输出行人特征向量。
本实施例将获取的低分辨率图片作为探测数据集中的图片,同时建立目标 数据集,该目标数据集全部是高分辨率图片。探测数据集中的低分辨率图片经 过前面的步骤得到融合图片,融合后的超分辨率图像输入到特征提取网络,获 得行人特征向量;目标数据集中的图片直接经过特征提取网络获得行人特征向 量。
本实施例所述特征提取网络使用ResNet50,把倒数第2层的值作为特征, 得到512维的行人特征向量。
S5、根据特征向量进行相似度计算,得到行人再识别结果。
本实施例使用欧氏距离计算探测数据集和目标数据集中行人图片的特征相 似度,特征相似度越高,说明两张图片中行人的身份相同的可能性越大,因此 选取相似度最高的结果作为匹配输出,将目标数据集中行人的身份作为识别结 果。
图4和图5分别是本发明在Market1501和CUHK03数据集上的生成图片效 果,LR表示待识别的低分辨率图片,SR表示仅经过超分辨率网络分支得到的 第一高分辨率图片,GAN表示仅经过生成对抗网络分支得到的第二高分辨率图 片,ADBNet表示融合得到的超分辨率图像,HR表示目标数据集中原始的高分 辨率图像。根据效果图可以看出超分辨率分支生成的图片SR真实却模糊,生成 对抗网络分支生成的图片GAN有清晰的细节却同时带有不真实的细节,而融合 图片ADBNet能很好地结合两者的优点。
表1给出了在Market-1501数据集上本发明与其它主流方法的准确率比较数 据。表2给出了在CUHK03数据集上本发明与其它主流方法的准确率比较数据。 表1中的对比方法包括PCB(Part-Based Convolutional Baseline)、MGN(Multiple GranularityNetwork)、ResNet50(Deep Residual Network)和 SRCNN(Super-ResolutionConvolutional Neural Network)+ResNet50。其中 SRCNN+ResNet50表示以端对端方式结合超分辨率网络SRCNN和识别网络 ResNet50进行训练。表2中的对比方法包括JUDEA(JointMulti-Scale Discriminant Component Analysis)、SDF(Scale-Distance Function)、DGD(Domain Guided Dropout)、SRCNN+XQDA(Cross-view Quadratic DiscriminantAnalysis)和 SING(Super-Resolution and Identity Joint Learning)。在表中,下标HR表示该分 类网络只用高分辨率图片训练,不含下标HR表示该分类网络同时使用高分辨率图片和下采样得到的低分辨率图片训练。表1和表2中第一行的1、5、10分别 表示Rank1、Rank5和Rank10准确率。
表1在Market-1501数据集上本发明与其它主流方法的准确率比较
Rank(%) | 1 | 5 | 10 |
PCB<sub>HR</sub> | 18.1 | 31.7 | 38.2 |
MGN<sub>HR</sub> | 30.3 | 51.7 | 61.3 |
ResNet50<sub>HR</sub> | 15.5 | 28.2 | 35.2 |
SRCNN+ResNet<sub>HR</sub> | 51.2 | 72.7 | 79.8 |
ADBNet+ResNet50<sub>HR</sub> | 60.5 | 80.1 | 85.9 |
RetNet50 | 60.0 | 80.3 | 86.1 |
ADBNet | 72.1 | 86.6 | 91.0 |
表2在CUHK03数据集上本发明与其它主流方法的准确率比较
从表1、2中可以看出,本发明提出的方法ADBNet识别准确率高于已有方 法,具有很强的应用价值。
在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以 是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。 上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式 实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或 使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本 质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以 软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若 干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等) 执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U 盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种 可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于 此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到 各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。 因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (6)
1.一种基于自适应双分支网络的低分辨率行人再识别方法,其特征在于,包括步骤:
(1)获取低分辨率行人图片,输入到双分支网络,所述双分支网络包括超分辨率网络分支和生成对抗网络分支,低分辨率行人图片通过超分辨率网络分支生成能反应行人整体形状的第一高分辨率图像,通过生成对抗网络分支生成细节清晰的第二高分辨率图像;
(2)将上述第一高分辨率图像和第二高分辨率图像进行融合,得到一张超分辨率图像;
(3)将超分辨率图像输入到特征提取网络,输出行人特征向量;
(4)将行人特征向量与目标数据集中行人图片的特征向量进行比对,计算相似度,根据相似度确定低分辨率行人图片中行人的身份。
3.根据权利要求1所述的基于自适应双分支网络的低分辨率行人再识别方法,其特征在于,所述步骤(1)中,生成对抗网络分支包含2个生成器和2个判别器组成,该分支的损失函数由生成对抗损失和循环损失组成;每个生成器都由6个残差块组成,每个判别器的网络结构都和Patch-GAN的判别器相同。
5.根据权利要求1所述的基于自适应双分支网络的低分辨率行人再识别方法,其特征在于,所述步骤(3)中,特征提取网络使用ResNet50,把倒数第2层的值作为特征,得到512维的行人特征向量。
6.根据权利要求1所述的基于自适应双分支网络的低分辨率行人再识别方法,其特征在于,所述步骤(4)中,使用欧氏距离计算行人特征向量和目标数据集中行人图片的特征向量的特征相似度,选取相似度最高的结果作为匹配输出,将目标数据集中行人的身份作为识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910813764.5A CN110738099B (zh) | 2019-08-30 | 2019-08-30 | 一种基于自适应双分支网络的低分辨率行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910813764.5A CN110738099B (zh) | 2019-08-30 | 2019-08-30 | 一种基于自适应双分支网络的低分辨率行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110738099A true CN110738099A (zh) | 2020-01-31 |
CN110738099B CN110738099B (zh) | 2022-06-07 |
Family
ID=69267578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910813764.5A Active CN110738099B (zh) | 2019-08-30 | 2019-08-30 | 一种基于自适应双分支网络的低分辨率行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110738099B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260560A (zh) * | 2020-02-18 | 2020-06-09 | 中山大学 | 一种融合注意力机制的多帧视频超分辨率方法 |
CN112200162A (zh) * | 2020-12-03 | 2021-01-08 | 中国科学院自动化研究所 | 基于端到端网络的非接触式心率测量方法、系统和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016019484A1 (en) * | 2014-08-08 | 2016-02-11 | Xiaoou Tang | An apparatus and a method for providing super-resolution of a low-resolution image |
CN107133601A (zh) * | 2017-05-13 | 2017-09-05 | 五邑大学 | 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法 |
CN109325471A (zh) * | 2018-10-31 | 2019-02-12 | 中山大学 | 一种结合表观特征和时空分布的双流网络行人重识别方法 |
CN109325931A (zh) * | 2018-08-22 | 2019-02-12 | 中北大学 | 基于生成对抗网络和超分辨率网络的多模态图像融合方法 |
-
2019
- 2019-08-30 CN CN201910813764.5A patent/CN110738099B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016019484A1 (en) * | 2014-08-08 | 2016-02-11 | Xiaoou Tang | An apparatus and a method for providing super-resolution of a low-resolution image |
CN107133601A (zh) * | 2017-05-13 | 2017-09-05 | 五邑大学 | 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法 |
CN109325931A (zh) * | 2018-08-22 | 2019-02-12 | 中北大学 | 基于生成对抗网络和超分辨率网络的多模态图像融合方法 |
CN109325471A (zh) * | 2018-10-31 | 2019-02-12 | 中山大学 | 一种结合表观特征和时空分布的双流网络行人重识别方法 |
Non-Patent Citations (2)
Title |
---|
ZHANXIANG FENG ET AL.: "Learning View-Specific Deep Networks for Person Re-Identification", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
汪鑫耘 等: "生成式对抗网络在超分辨率图像重建中的应用", 《计算机科学探索》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260560A (zh) * | 2020-02-18 | 2020-06-09 | 中山大学 | 一种融合注意力机制的多帧视频超分辨率方法 |
CN111260560B (zh) * | 2020-02-18 | 2020-12-22 | 中山大学 | 一种融合注意力机制的多帧视频超分辨率方法 |
CN112200162A (zh) * | 2020-12-03 | 2021-01-08 | 中国科学院自动化研究所 | 基于端到端网络的非接触式心率测量方法、系统和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110738099B (zh) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jiang et al. | Dual-path deep fusion network for face image hallucination | |
Tu et al. | RGBT salient object detection: A large-scale dataset and benchmark | |
Hu et al. | Learning semantic segmentation of large-scale point clouds with random sampling | |
Zhao et al. | Efficient and model-based infrared and visible image fusion via algorithm unrolling | |
Wang et al. | Spatial attentive single-image deraining with a high quality real rain dataset | |
Wang et al. | SaliencyGAN: Deep learning semisupervised salient object detection in the fog of IoT | |
Li et al. | Linestofacephoto: Face photo generation from lines with conditional self-attention generative adversarial networks | |
Zhang et al. | Semantic-aware dehazing network with adaptive feature fusion | |
Pan et al. | DACNN: Blind image quality assessment via a distortion-aware convolutional neural network | |
Liu et al. | Countr: Transformer-based generalised visual counting | |
Liu et al. | Bayesian model adaptation for crowd counts | |
Wang et al. | Ucl-dehaze: Towards real-world image dehazing via unsupervised contrastive learning | |
Zhu et al. | Pmatch: Paired masked image modeling for dense geometric matching | |
Li et al. | Learning disentangling and fusing networks for face completion under structured occlusions | |
Vo et al. | Abn: Agent-aware boundary networks for temporal action proposal generation | |
Su et al. | Infrared and visible image fusion based on adversarial feature extraction and stable image reconstruction | |
CN110738099A (zh) | 一种基于自适应双分支网络的低分辨率行人再识别方法 | |
Kim et al. | Video object detection using object's motion context and spatio-temporal feature aggregation | |
Guo et al. | Scale region recognition network for object counting in intelligent transportation system | |
Xiao et al. | Distinguishing and matching-aware unsupervised point cloud completion | |
Yuan et al. | Structure flow-guided network for real depth super-resolution | |
Zhou et al. | Towards locality similarity preserving to 3D human pose estimation | |
Zhang | [Retracted] Sports Action Recognition Based on Particle Swarm Optimization Neural Networks | |
Chu et al. | Semi-supervised 3d human pose estimation by jointly considering temporal and multiview information | |
Bardhan | Salient object detection by contextual refinement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared | ||
OL01 | Intention to license declared |