CN111681236B - 一种带注意力机制的目标密度估计方法 - Google Patents

一种带注意力机制的目标密度估计方法 Download PDF

Info

Publication number
CN111681236B
CN111681236B CN202010534052.2A CN202010534052A CN111681236B CN 111681236 B CN111681236 B CN 111681236B CN 202010534052 A CN202010534052 A CN 202010534052A CN 111681236 B CN111681236 B CN 111681236B
Authority
CN
China
Prior art keywords
density
preset target
training image
network
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010534052.2A
Other languages
English (en)
Other versions
CN111681236A (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Shuzhilian Technology Co Ltd
Original Assignee
Chengdu Shuzhilian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Shuzhilian Technology Co Ltd filed Critical Chengdu Shuzhilian Technology Co Ltd
Priority to CN202010534052.2A priority Critical patent/CN111681236B/zh
Publication of CN111681236A publication Critical patent/CN111681236A/zh
Application granted granted Critical
Publication of CN111681236B publication Critical patent/CN111681236B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种带注意力机制的目标密度估计方法,涉及图像处理领域,包括:生成对应的预设目标坐标表格;基于预设目标坐标表格,生成对应训练图像中的预设目标的真值密度图;基于各个训练图像对应的预设目标的真值密度图生成全局注意力区域图;将训练图像与该训练图像中的预设目标的真值密度图分别输入并行的密度预测网络与注意力区域网络,输出预设目标密度预测图和注意力区域图;合并注意力区域图与预设目标密度预测图得到最终预设目标密度特征图;将最终预设目标密度特征图展开为最终预设目标预测图,本发明用以解决现有方法基于检测的方式难以估计区域内高密度目标数目的问题,为基于目标个数的应用提供准确的基础。

Description

一种带注意力机制的目标密度估计方法
技术领域
本发明涉及图像处理领域,具体地,涉及一种带注意力机制的目标密度估计方法。
背景技术
目前目标监控应用主要是基于目标识别的技术,这些检测方法通常是将目标用检测框圈出,通过统计检测框的数量来进行目标数量的统计,这些方法在目标密度大、遮挡多的环境下识别效果差,部分目标无法被检测框圈出,在统计时会漏掉许多目标。常见的卷积神经网络为单列网络,当目标物在图像中透视缩放程度较大时,单列神经网络很难学习到全部的特征情况。同时,现有神经网络通常会对输入图片的尺寸做要求,使得这些网络在使用时需要去调整图片的大小以适应神经网络。
发明内容
本发明提供了一种带注意力机制的目标密度估计方法,用以解决现有方法基于检测的方式难以估计区域内高密度目标数目的问题,为基于目标个数的应用提供准确的基础。
本发明基于目标密度估计的回归算法,能规避部分目标无法被检测框圈出的问题;添加了注意力学习模块,能有效提升网络在识别高密度目标数量时的精度。同时,本发明使用了多列卷积神经网络技术,每列卷积神经网络都有不同尺寸的卷积核,每列卷积神经网络能更好学习一种尺寸目标物,即大卷积核的网络学习大尺寸目标,小卷积核的网络学习小尺寸目标。该设计能更好全局学习图像中因透视缩放而大小差距很大的目标物。本发明使用技术成熟的VGG网络采集局部注意力区域,能有效提高系统的稳定性。本发明的网络参数经过调整,能使神经网络适应不同尺寸的图片,而无需对图片的尺寸做特定要求。
为实现上述发明目的,本发明提供了一种带注意力机制的目标密度估计方法,所述方法包括:
预处理训练图像,包括:标注训练图像中预设目标的位置得到对应的预设目标坐标表格;
基于预设目标坐标表格,生成对应训练图像中的预设目标的真值密度图;
基于各个训练图像对应的预设目标的真值密度图生成全局注意力区域图;
将训练图像与该训练图像中的预设目标的真值密度图分别输入并行的密度预测网络与注意力区域网络,密度预测网络输出预设目标密度预测图,注意力区域网络输出注意力区域图;
合并注意力区域图与预设目标密度预测图,消除预设目标密度预测图中的额外噪点得到最终预设目标密度特征图;
将最终预设目标密度特征图展开为最终预设目标预测图。
其中,本发明提出的目标密度估计方法能够接受任意尺寸的输入图像;无需对训练数据进行降采样;基于回归的网络设计,能估算高密度目标的数量;使用注意力机制提高估算精度。
其中,本发明中的预设目标可以为人,也可以为其他动物或建筑物或汽车等等物体,本发明对具体的预设目标类型不进行限定。
优选的,在本发明中为了减轻计算机的负荷,本发明中预处理训练图像还包括:将训练图像处理为同一尺寸。
优选的,本发明中所述基于预设目标坐标表格,生成对应训练图像中的预设目标的真值密度图,具体包括:
定标拍摄训练图像的拍摄设备得到该拍摄设备拍摄的图像大小相对于真实物体大小的缩放矩阵;
将预设目标坐标表格结合对应的缩放矩阵,通过高斯核卷积,生成训练图像对应的预设目标真值密度图。
优选的,本发明中采用以下公式生成训练图像中预设目标真值密度图:
Figure BDA0002536406970000021
其中,G(x,y)是高斯核卷积生成的训练图像中预设目标真值密度图,x为横坐标,y为纵坐标,π为圆周率,σ为高斯核大小。
优选的,本发明中所述基于各个训练图像对应的预设目标真值密度图生成全局注意力区域图,具体包括:将各个训练图像对应的预设目标真值密度图融入到一张坐标图中,并归一化到[0,1]区间内生成全局注意力区域图。
优选的,本发明中采用以下公式进行全局注意力区域图的计算:
Figure BDA0002536406970000022
其中,Attention(x,y)为全局注意力区域图,G(x,y)为训练图像中预设目标的真值密度图,x为横坐标,y为纵坐标,m为训练图像编号;M为训练图像总数。
优选的,本发明中在密度预测网络中,训练图像被分别输入三个并行的下采样编码子网络,下采样编码子网络将预设图像压缩,三个并行的下采样编码子网络分别使用三种不同大小的卷积核,每个下采样编码子网络均包括三个卷积层、一个池化层和三个激活层;
密度预测网络中的三个并行的下采样编码子网络能针对训练图像中的大、中和小目标分别输出一份特征图,并将这三份特征图合并到同一份特征图中。
优选的,本发明中训练图像通过卷积核扫描生成输入到下一层网络的特征图,其数学原理如下:
y=∑iwixi+b
其中,y为输出特征图的值,wi为该卷积层神经元的权重,xi为输入特征图的值,i为神经元编号,b为偏置参数;
对训练图像进行像素填充,在训练图像周围额外添加一圈像素,其数学表达如下:
Figure BDA0002536406970000031
其中,dout为输出特征图的边长,din为输入特征图的边长,dkernel为卷积核边长,p为像素填充量,stride为步长;
卷积处理后的特征图经过最大池化;
使用ReLU函数作为神经网络的激活函数:
σ(x)=max(0,x);
其中,σ(x)为激活函数输出值,x为特征图的值。
优选的,本发明中密度预测网络添加作为解码器的上采样结构,训练图像将经过两个上采样模块处理,每个上采样模块由一个反卷积层组和一个卷积层组构成;
上采样模块能通过对训练图像做像素级的插值,扩大图像尺寸,其数学表达如下:
dout=(din)×stride+dkernel-2×p
其中,dout为输出特征图边长,din为输入特征图边长,dkernel为反卷积卷积核边长,p为像素填充量,stride为步长。
优选的,本发明中利用基于VGG16网络的预训练注意力区域网络,通过迁移学习的方法,搭建生成注意力区域图的注意力区域网络,将VGG16网络最后四层全连接层变成卷积核为1×1的卷积层,利用反卷积层4倍上采样,将图像大小缩放到与密度预测网络输出图像大小相同。
本发明提供的一个或多个技术方案,至少具有如下技术效果或优点:
本发明为解决常规检测方法难以应对大规模目标的问题,提出基于回归的人群密度估算方法。本发明创新使用了注意力机制对网络生成的密度图进行杂波过滤,辅助提升了网络的估算效果。本网络相较于原始的MCNN网络模型,准确度提升了大约25%。网络对人群密度的预测采用GPU加速计算,获得CPU计算2倍以上的计算的速度。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本发明的一部分,并不构成对本发明实施例的限定;
图1为带注意力机制的目标密度估计方法网络示意图;
图2为带注意力机制的目标密度估计方法流程示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在相互不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述范围内的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
实施例一
实施例一以目标为人对本发明进行介绍,当目标为其他类型时进行替换即可。
请参考图1-图2,图1为带注意力机制的目标密度估计方法网络示意图,图2为带注意力机制的目标密度估计方法流程示意图,本发明提出了一种带注意力机制的人群密度估计方法:本发明能够接受任意尺寸输入图像;无需对训练数据进行降采样;基于回归的网络设计,能估算高密度目标的数量;使用注意力机制提高估算精度。
本实施例中的目标密度估计方法流程如下:
步骤1:图像预处理。将训练图像处理为同一尺寸,可适当缩小图像尺寸减少计算机运算负荷,同时标注训练图像中目标的位置,生成对应的目标坐标表格(LocationTable)。
步骤2:密度图(Densitymap)生成。摄像机拍摄的画面存在近大远小的透视缩放,通过定标摄像机得到该摄像机的图像大小相对于真实物体大小的缩放矩阵(Perspectivemap)。将步骤1生成的人头坐标表格结合对应的缩放矩阵(Perspective map),通过高斯核卷积,生成对应的密度图。其数学原理如以下公式所示:
Figure BDA0002536406970000041
其中,G(x,y)是高斯核卷积生成的训练图像中预设目标真值密度图,x为横坐标,y为纵坐标,π为圆周率,σ为高斯核大小。
步骤3:全局注意力区域图生成。将步骤2生成的各训练图片密度图全部融入到一张坐标图中,并归一化到[0,1]区间内。
Figure BDA0002536406970000042
其中,Attention(x,y)为全局注意力区域图,G(x,y)为训练图像中预设目标的真值密度图,x为横坐标,y为纵坐标,m为训练图像编号;M为训练图像总数。
步骤4:将训练图像与其对应的真值密度图即步骤2所生成密度图分别输入并行的密度预测网络与注意力区域网络。
步骤5:在密度预测网络中,训练图像被分别输入三个并行的下采样编码(Encoder)子网络,下采样网络能将图像压缩,减少数据量,提升运算速度。这三个并行子网络分别使用三种不同大小的卷积核,每个子网络均包含了三个卷积层、一个池化层和三个激活层。
卷积层介绍:训练图片通过卷积核扫描生成输入到下一层网络的特征图featuremap,其数学原理如下:
y=∑iwixi+b
其中,y为输出特征图的值,wi为该卷积层神经元的权重,xi为输入特征图的值,i为神经元编号,b为偏置参数;
通常图像在经过卷积处理后,尺寸会发生变化,其数学原理如下:
Figure BDA0002536406970000051
其中,dout为输出特征图的边长,din为输入特征图的边长,dkernel为卷积核的边长,stride为步长。
为防止图像尺寸缩小,本发明使用了像素填充(padding)技术,在图像周围额外添加一圈像素,使得卷积后的图像尺寸和卷积前的一样。其数学表达如下:
Figure BDA0002536406970000052
其中,dout为输出特征图的边长,din为输入特征图的边长,dkernel为卷积核边长,p为像素填充量,stride为步长;
卷积处理后的特征图经过最大池化,减小数据总量,防止过拟合。
使用ReLU函数作为网络的激活函数:
σ(x)=max(0,x)
其中,σ(x)为激活函数输出值,x为特征图的值。
步骤6:密度预测网络中的三个并行的下采样子网络针对图像中的大、中、小目标,分别输出一份特征图。将这三份特征图合并到同一份特征图中。
步骤7:由于图像经过前半段网络的编码压缩(Encoder)处理,尺寸缩小了4倍,所以本发明为网络添加了作为解码器Decoder的上采样结构。图像将经过两个上采样模块处理,每个模块由一个反卷积层组和一个卷积层组构成。
上采样模块能通过对图像做像素级的插值,扩大图像尺寸,其数学表达如下:
dout=(din)×stride+dkernel-2×p
其中,dout为输出特征图边长,din为输入特征图边长,dkernel为反卷积卷积核边长,p为像素填充量,stride为步长。
步骤8:同理,利用基于VGG16网络的预训练网络,通过迁移学习的方法,搭建了生成注意力区域图的注意力区域网络。将VGG16网络最后四层全连接层变成卷积核为1×1的卷积层,利用反卷积层4倍上采样,图像大小缩放到与密度预测网络输出图像一样。
步骤9:合并注意力区域图与人群密度预测图,消除人群密度预测图中的额外噪点,减少预测误差。其数学原理如下:
Figure BDA0002536406970000061
其中,P(x,y)为最终密度特征图,Att(x,y)为注意力区域网络输出的局部注意力特征图,Perd(x,y)为密度预测网络输出的初步密度特征图。
步骤10:消除噪点后的最终密度特征图通过卷积核为1×1的卷积层,展开为一张预测图。
本发明为解决常规检测算法难以应对大规模人群的问题,提出基于回归的人群密度估算方法。该方法创新使用了注意力机制对网络生成的密度图进行杂波过滤,辅助提升了网络的估算效果。本网络相较于原始的MCNN网络模型,准确度提升了大约25%。网络对人群密度的预测采用GPU加速计算,获得CPU计算2倍以上的计算的速度。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (8)

1.一种带注意力机制的目标密度估计方法,其特征在于,所述方法包括:
预处理训练图像,包括:标注训练图像中预设目标的位置得到对应的预设目标坐标表格;
基于预设目标坐标表格,生成对应训练图像中的预设目标的真值密度图;
基于各个训练图像对应的预设目标的真值密度图生成全局注意力区域图;
将训练图像与该训练图像中的预设目标的真值密度图分别输入并行的密度预测网络与注意力区域网络,密度预测网络输出预设目标密度预测图,注意力区域网络输出注意力区域图;
合并注意力区域图与预设目标密度预测图,消除预设目标密度预测图中的额外噪点,得到最终预设目标密度特征图;
将最终预设目标密度特征图展开为最终预设目标预测图;
在密度预测网络中,训练图像被分别送入三个并行的下采样编码子网络,下采样编码子网络将预设图像压缩;三个并行的下采样编码子网络分别使用三种不同大小的卷积核,每个下采样编码子网络均包括三个卷积层、一个池化层和三个激活层;
密度预测网络中的三个并行的下采样编码子网络针对训练图像中的大、中和小目标分别输出一份特征图,将这三份特征图合并到同一份特征图中;
利用基于VGG16网络的预训练注意力区域网络,通过迁移学习的方法,搭建生成注意力区域图的注意力区域网络,将VGG16网络最后四层全连接层变成卷积核为1×1的卷积层,利用反卷积层4倍上采样,将图像大小缩放到与密度预测网络输出图像大小相同;
密度预测网络与注意力区域网络采用GPU加速计算。
2.根据权利要求1所述的带注意力机制的目标密度估计方法,其特征在于,所述预处理训练图像还包括:将训练图像处理为同一尺寸。
3.根据权利要求1所述的带注意力机制的目标密度估计方法,其特征在于,所述基于预设目标坐标表格,生成对应训练图像中的预设目标的真值密度图,具体包括:
定标拍摄训练图像的拍摄设备得到该拍摄设备拍摄的图像大小相对于真实物体大小的缩放矩阵;
将预设目标坐标表格结合对应的缩放矩阵,通过高斯核卷积,生成训练图像对应的预设目标真值密度图。
4.根据权利要求3所述的带注意力机制的目标密度估计方法,其特征在于:
Figure FDA0003572899730000011
其中,G(x,y)是高斯核卷积生成的训练图像中预设目标真值密度图,x为横坐标,y为纵坐标,π为圆周率,σ为高斯核大小。
5.根据权利要求1所述的带注意力机制的目标密度估计方法,其特征在于,所述基于各个训练图像对应的预设目标的真值密度图生成全局注意力区域图,具体包括:将各个训练图像对应的预设目标的真值密度图融入到一张坐标图中,并归一化到[0,1]区间内生成全局注意力区域图。
6.根据权利要求5所述的带注意力机制的目标密度估计方法,其特征在于:
Figure FDA0003572899730000021
其中,Attention(x,y)为全局注意力区域图,G(x,y)为训练图像中预设目标的真值密度图,x为横坐标,y为纵坐标,m为训练图像编号;M为训练图像总数。
7.根据权利要求1所述的带注意力机制的目标密度估计方法,其特征在于:
训练图像通过卷积核扫描生成输入到下一层网络的特征图,其数学原理如下:
y=∑iwixi+b
其中,y为输出特征图的值,wi为该卷积层神经元的权重,xi为输入特征图的值,i为神经元编号,b为偏置参数;
对训练图像进行像素填充,在训练图像周围额外添加一圈像素,其数学表达如下:
Figure FDA0003572899730000022
其中,dout为输出特征图的边长,din为输入特征图的边长,dkernel为卷积核边长,p为像素填充量,stride为步长;
卷积处理后的特征图经过最大池化;
使用ReLU函数作为神经网络的激活函数:
σ(x)=max(0,x)
其中,σ(x)为激活函数输出值,x为特征图的值。
8.根据权利要求1所述的带注意力机制的目标密度估计方法,其特征在于,密度预测网络添加作为解码器的上采样结构,训练图像将经过两个上采样模块处理,每个上采样模块由一个反卷积层组和一个卷积层组构成;
上采样模块能通过对训练图像做像素级的插值,扩大图像尺寸,其数学表达如公式:
dout=(din)×stride+dkernel-2×p
其中,dout为输出特征图边长,din为输入特征图边长,dkernel为反卷积卷积核边长,p为像素填充量,stride为步长。
CN202010534052.2A 2020-06-12 2020-06-12 一种带注意力机制的目标密度估计方法 Active CN111681236B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010534052.2A CN111681236B (zh) 2020-06-12 2020-06-12 一种带注意力机制的目标密度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010534052.2A CN111681236B (zh) 2020-06-12 2020-06-12 一种带注意力机制的目标密度估计方法

Publications (2)

Publication Number Publication Date
CN111681236A CN111681236A (zh) 2020-09-18
CN111681236B true CN111681236B (zh) 2022-05-17

Family

ID=72454718

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010534052.2A Active CN111681236B (zh) 2020-06-12 2020-06-12 一种带注意力机制的目标密度估计方法

Country Status (1)

Country Link
CN (1) CN111681236B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112989952B (zh) * 2021-02-20 2022-10-18 复旦大学 一种基于遮罩引导的人群密度估计方法及装置
CN113807334B (zh) * 2021-11-22 2022-02-18 成都航空职业技术学院 一种基于残差网络的多尺度特征融合的人群密度估计方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9082011B2 (en) * 2012-03-28 2015-07-14 Texas State University—San Marcos Person identification using ocular biometrics with liveness detection
WO2015011985A1 (ja) * 2013-07-25 2015-01-29 ソニー株式会社 情報処理装置、方法及びプログラム
CN107301387A (zh) * 2017-06-16 2017-10-27 华南理工大学 一种基于深度学习的图像高密度人群计数方法
JP7005622B2 (ja) * 2017-07-12 2022-01-21 株式会社ソニー・インタラクティブエンタテインメント 認識処理装置、認識処理方法及びプログラム
CN109447008B (zh) * 2018-11-02 2022-02-15 中山大学 基于注意力机制和可变形卷积神经网络的人群分析方法
CN110852267B (zh) * 2019-11-11 2022-06-14 复旦大学 基于光流融合型深度神经网络的人群密度估计方法及装置
CN111047559B (zh) * 2019-11-21 2023-04-18 万达信息股份有限公司 一种数字病理切片异常区域快速检测的方法
CN110942015B (zh) * 2019-11-22 2023-04-07 上海应用技术大学 人群密度估计方法

Also Published As

Publication number Publication date
CN111681236A (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
US12008797B2 (en) Image segmentation method and image processing apparatus
Cho et al. Weakly-and self-supervised learning for content-aware deep image retargeting
CN111292330A (zh) 基于编解码器的图像语义分割方法及装置
CN113807334B (zh) 一种基于残差网络的多尺度特征融合的人群密度估计方法
US20230043026A1 (en) Learning-based active surface model for medical image segmentation
CN112541877B (zh) 基于条件生成对抗网络的去模糊方法、系统、设备及介质
CN113962858B (zh) 一种多视角深度获取方法
CN111091503A (zh) 基于深度学习的图像去失焦模糊方法
CN111681236B (zh) 一种带注意力机制的目标密度估计方法
CN113344110B (zh) 一种基于超分辨率重建的模糊图像分类方法
CN115240240A (zh) 基于yolo网络的红外人脸识别方法及系统
CN113421186A (zh) 使用生成对抗网络的非监督视频超分辨率的设备和方法
US20220215617A1 (en) Viewpoint image processing method and related device
CN116385281A (zh) 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法
CN118397367A (zh) 一种基于卷积视觉Mamba的篡改检测方法
CN117475357B (zh) 基于深度学习的监控视频图像遮挡检测方法及系统
KR102486083B1 (ko) 확장 합성곱 신경망을 이용한 군중 장면 이미지 실시간 분석 장치 및 방법
CN113298097A (zh) 基于卷积神经网络的特征点提取方法、设备及存储介质
CN117593187A (zh) 基于元学习和Transformer的遥感图像任意尺度超分辨率重建方法
CN113096032A (zh) 一种基于图像区域划分的非均匀一致模糊去除方法
CN114863132A (zh) 图像空域信息的建模与捕捉方法、系统、设备及存储介质
CN111680648B (zh) 一种目标密度估计神经网络的训练方法
CN115115860A (zh) 一种基于深度学习的图像特征点检测匹配网络
CN112001479B (zh) 基于深度学习模型的处理方法、系统及电子设备
CN112990215B (zh) 图像去噪方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 610042 No. 270, floor 2, No. 8, Jinxiu street, Wuhou District, Chengdu, Sichuan

Applicant after: Chengdu shuzhilian Technology Co.,Ltd.

Address before: No.2, floor 4, building 1, Jule road crossing, Section 1, West 1st ring road, Wuhou District, Chengdu City, Sichuan Province 610041

Applicant before: CHENGDU SHUZHILIAN TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant