CN109740537B - 人群视频图像中行人图像属性的精确标注方法及系统 - Google Patents

人群视频图像中行人图像属性的精确标注方法及系统 Download PDF

Info

Publication number
CN109740537B
CN109740537B CN201910004514.7A CN201910004514A CN109740537B CN 109740537 B CN109740537 B CN 109740537B CN 201910004514 A CN201910004514 A CN 201910004514A CN 109740537 B CN109740537 B CN 109740537B
Authority
CN
China
Prior art keywords
pedestrian
target
pedestrian target
image
image layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910004514.7A
Other languages
English (en)
Other versions
CN109740537A (zh
Inventor
潘新生
梁添才
金晓峰
赵清利
徐天适
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Grg Banking Financial Electronic Technology Co ltd
GRG Banking Equipment Co Ltd
Original Assignee
Shenzhen Grg Banking Financial Electronic Technology Co ltd
GRG Banking Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Grg Banking Financial Electronic Technology Co ltd, GRG Banking Equipment Co Ltd filed Critical Shenzhen Grg Banking Financial Electronic Technology Co ltd
Priority to CN201910004514.7A priority Critical patent/CN109740537B/zh
Publication of CN109740537A publication Critical patent/CN109740537A/zh
Application granted granted Critical
Publication of CN109740537B publication Critical patent/CN109740537B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明属于图像处理技术,为人群视频图像中行人图像属性的精确标注方法及系统,其方法对视频数据的每一帧图像进行行人目标定位,利用位置信息、结果置信度和唯一性标识号表示行人目标的检测位置信息;根据置信度进行行人位置的向外扩展;对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;以扩大位置的最大值为中心位置,行人位置宽高λ倍为宽高确定搜索窗口,统计搜索窗口内各分割目标图像层的像素个数总和,总和最大的确定为行人目标图像层;确定行人目标区域的最小矩形框,得到行人目标的精确位置。本发明有效解决了视频图像中人群的行人图像属性标注精度不足、逐帧视频标注工作量大的问题。

Description

人群视频图像中行人图像属性的精确标注方法及系统
技术领域
本发明涉及图像处理技术,具体为人群视频图像中行人图像属性的精确标注方法及系统。
背景技术
行人图像属性主要包括性别、年龄、是否戴眼镜、随身携带物品(比如背包、挎包、手提包、行李箱、打伞等)类型和颜色、衣着颜色和样式等。随着大数据、云计算技术的发展,行人图像属性识别技术广泛应用于视频图像结构化检索、大数据分析、视频治安防控、图侦破案等。因此,对行人图像属性的资源和结构化描述信息的需求是海量的。目前,对视频图像的行人图像属性的识别多采用机器学习的方法,需要先进行大量的、精确的行人图像属性标注,生成训练样本数据用于模型的训练和优化。
随着大数据、深度学习技术的发展,多目标行人图像属性识别的技术也逐渐转向深度学习。深度学习的网络模型训练需要大量、高质量的行人图像属性标注数据,而这些属性标注数据目前大多采用人工手动标注。人工手动标注数据存在以下的缺点:
1)标注工作量大、效率低,特别是针对视频的行人图像属性标注,如果每一帧图像都采用人工手动标注,需要标注的数据更是海量;
2)采用人工标注的行人图像属性存在一定的主观性、不一致性,特别是标注出的行人位置框、特征点位置信息存在较大的偏差;
3)针对视频图像中的人群,由于行人间存在相互遮挡、相互重叠,人工标注行人位置框、特征点位置的精度更是存在不足。
发明内容
为解决现有技术所存在的技术问题,本发明提供人群视频图像中行人图像属性的精确标注方法,该方法先粗略确定行人的位置信息,再采用基于深度学习的图像语义分割算法分割出行人目标,完成行人目标位置的精确标注,再进行目标的跟踪处理得到行人目标的ID号,根据ID号对行人目标进行图像属性的标注,有效地解决了视频图像中人群的行人图像属性标注精度不足、逐帧视频标注工作量大的问题。
本发明还提供人群视频图像中行人图像属性的精确标注系统。
本发明的精确标注方法采用以下技术方案来实现:人群视频图像中行人图像属性的精确标注方法,包括以下步骤:
S1、对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
S2、根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
S3、利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
S4、根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
S5、根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
优选地,步骤S2进行行人位置的向外扩展时,行人位置的扩大数值根据行人目标位置结果置信度进行计算;行人目标位置结果置信度越大,行人位置的扩大数值就越小。行人位置的扩大数值δx、δy的取值范围分别在
Figure BDA0001934913490000021
Figure BDA0001934913490000022
δx、δy的计算公式如下:
Figure BDA0001934913490000023
其中行人目标位置结果置信度confi∈(0.5,1)。
优选地,步骤S3采用RACSIS语义分割方法,把行人位置扩展后的图片区域作为输入,通过改进空间维度上的金字塔空洞池化结构的方法,得到行人目标与背景的各分割目标图像层。
本发明精确标注系统采用如下技术方案实现:人群视频图像中行人图像属性的精确标注系统,包括:
行人目标的位置信息检测模块,对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
行人位置扩展模块,根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
行人目标与背景的图像层分割模块,利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
行人目标图像层的确定模块,根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
行人目标的精确位置定位模块,根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明通过基于深度学习的目标检测算法先粗略确定行人的位置信息,再采用基于深度学习的图像语义分割算法分割出行人目标,从而完成行人目标位置的精确标注,然后再进行目标的跟踪处理,得到行人目标的ID号,最后通过对同一ID号的行人目标进行图像属性的标注,即可完成同一行人目标的所有视频帧图像属性标注,从而提高人工手动标注视频图像的效率和质量,有效地解决视频图像中人群的行人图像属性标注精度不足、逐帧视频标注工作量大的问题。
2、本发明在视频标注前,采用深度学习目标检测算法对每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,并对该帧图像的每个行人目标采用唯一性ID标识进行标示,准确度高。
3、根据行人位置结果的置信度,通过区域扩展算法将行人位置向外扩展,以确保行人位置框所在图像区域包含人体的所有部位,从而使后续利用语义分割模型进行行人位置区域的图像分割时,具有较高的准确性。
附图说明
图1是本发明的流程图;
图2是分割图层及搜索窗口的确定示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1,本发明提出了人群视频图像中行人图像属性的精确标注方法,主要包括以下步骤:
步骤1:开发一款图形界面的辅助标注软件工具,导入视频数据,获取视频帧序列,准备进行标注。
步骤2:采用深度学习目标检测算法对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,并对该帧图像的每个行人目标采用唯一性ID标识进行标示,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号对行人目标的检测位置信息表示为:
Pi=(xi,yi,wi,hi,confi,idi)
其中xi、yi、wi、hi为行人目标的位置信息,confi为行人目标位置结果的置信度,idi为行人目标的唯一性标识号,i为视频帧序号。
步骤3:为确保行人位置框包含行人身体各部位,根据步骤2得到的行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息为:
P'i=(xix,yiy,wi+2*δx,hi+2*δy,confi,idi)
其中δx、δy为行人位置的扩大数值,可根据置信度confi进行计算,扩大数值的取值范围分别在
Figure BDA0001934913490000041
Figure BDA0001934913490000042
一般地,置信度confi的值越大,需要扩大的行人位置值δx、δy则越小,为了反映δx、δy与置信度confi的上述映射关系,特设计δx、δy的计算公式如下:
Figure BDA0001934913490000043
其中confi∈(0.5,1)。
步骤4:利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置(xix,yiy,wi+2*δx,hi+2*δy)区域进行图像分割,具体为采用RACSIS(Rethinking AtrousConvolution for Semantic Image Segmentation)等语义分割方法,把行人位置扩展后的图片区域作为输入,通过改进空间维度上的金字塔空洞池化(Atrous Spatial PyramidPooling,ASPP)结构的方法,得到行人目标与背景的各分割目标图像层。
RACSIS(Rethinking Atrous Convolution for Semantic Image Segmentation)语义分割是一种深度卷积神经网络(CNN)的方法,该方法通过设计一种深度神经网络模型,首先采用残差网络ResNet-50或残差网络ResNet-101模型进行特征映射(FeatureMapping),然后通过金字塔空洞池化(Atrous Spatial Pyramid Pooling,ASPP)和图像池化(Image Prooling)来改善残差网络ResNe模型,最后通过1x1的卷积完成图像重构与分割映射(Segmentation Mapping),得到行人目标与其他背景的分割目标图像层,如图2所示。
步骤5:根据步骤2得到行人目标的Pi=(xi,yi,wi,hi,confi,idi)位置信息,以扩大位置的最大值
Figure BDA0001934913490000044
为中心位置、行人位置宽高的λ倍为宽高(即
Figure BDA0001934913490000045
Figure BDA0001934913490000046
)确定行人目标区域搜索窗口
Figure BDA0001934913490000047
0.2﹤λ﹤0.6,一般取λ=0.3,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层。
搜索窗口的确定示意如图2所示,其中21为检测位置(xi,yi,wi,hi),22为扩大位置(xix,yiy,wi+2*δx,hi+2*δy),23为搜索窗口
Figure BDA0001934913490000051
24为行人精确位置(x0i,y0i,w0i,h0i)。
行人目标图像层的确定及各分割目标图像层的像素个数统计方法如下:
1)以中心位置
Figure BDA0001934913490000052
为起始点,标记该起始点所在的图像层为第一图层,并记录起始点的像素值为(r1,g1,b1),像素和为1,记为sum(ri,gi,bi)=1(i=1),i为图层标记号;
2)采用回字形的搜索路径,分别取右、右下、下、左下、左、左上、上、右上各8个邻域点的像素值与起始点的像素值进行比较,相同则跟随起始点,并标记相应的邻域点所在的图像层为第一图层,像素和sum(ri,gi,bi)(i=1)加1,否则标记相应的邻域点所在的图像层为新的图层,图层标记号为i+1,像素和sum(ri+1,gi+1,bi+1)加1;
3)继续按上述步骤2)在确定好的搜索窗口
Figure BDA0001934913490000053
进行搜索,分别统计得到各图层的像素和sum(ri,gi,bi),i=1,2,...,n,直到遍历完搜索窗口的所有像素点;
4)根据统计步骤3)得到的各图层的像素和sum(ri,gi,bi),取像素和summax(ri',gi',bi')值最大的图层标记为i',并判断为行人目标图像层,像素值置为255,其他的图层则判断为背景图像层,像素值置0。
步骤6:根据上述步骤5确定的行人目标图像层,则可确定包含像素值为255行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置(x0i,y0i,w0i,h0i)为:
P0'i=(x0i,y0i,w0i,h0i,confi,idi)
行人目标区域的最小矩形框的确定方法如下:
1)在上述步骤5确定的行人目标图像层区域窗口,以(0,0)为位置(x,y)的起始点,按宽、高分别递增的方法进行遍历搜索;
2)最小矩形框的位置记为(xmin,ymin,xmax,ymax),当遍历搜索像素值为255的位置(x,y)时,分别记录矩形框上、下、左、右4边框的最小、最大值,直到完成图像的遍历搜索,得到的最小矩形框位置(xmin,ymin,xmax,ymax)即为行人目标的精确位置(x0i,y0i,w0i,h0i),其中x0i=xmin,y0i=ymin,w0i=xmin-xmin,h0i=ymax-ymin
步骤7:对于第i+1帧图像,重复步骤2-6得到行人目标的精确位置信息,并对第i帧图像得到的行人目标进行跟踪处理,以确定第i+1帧图像的行人目标精确位置和唯一性标识号信息:
P0'i+1=(x0i+1,y0i+1,w0i+1,h0i+1,confi+1,idi+1)
其中xi+1、yi+1、wi+1、hi+1为行人目标的位置信息,confi+1为行人目标位置结果的置信度,idi+1为行人目标的唯一性标识号,i+1为视频帧序号。
行人目标跟踪处理的详细步骤如下:
1)对第i+1检测出的每一个行人目标框(xi+1,yi+1,wi+1,hi+1)j,计算与上一帧i检测出的每一个行人目标框(xi,yi,wi,hi)j'的交叠率IOUjj'(Intersection-Over-Union):
Figure BDA0001934913490000061
并记录其最大的IOUmax和相应的行人目标ID号idi
2)当IOUmax大于一定的阈值时,则当前帧i+1检测出行人目标的ID号跟随上一帧i行人目标的idi号,IOUjj'匹配成功,否则对该行人目标的ID号赋予新的值。
3)对上一帧i未IOUjj'匹配成功的行人目标进行基于特征的跟踪处理,若跟踪成功,则得到跟踪结果目标框和对应的行人目标ID号;若跟踪失败,则直接转到步骤9。
步骤8:对每个ID号的行人目标进行图像属性标注,根据视频帧之间的关联性和行人图像属性在视频时间段内的不变性,即可完成同一行人目标的所有视频帧图像属性标注。
步骤9:对上述步骤标注的行人位置和行人目标ID号信息进行人工确认和修正,并对漏标注的行人目标进行位置粗标注,再重复步骤3-8,完成行人图像属性的视频标注。
在本实施例中,人群视频图像中行人图像属性的精确标注系统用于实现上述精确标注方法,所包括的各主要模块分别如下:
行人目标的位置信息检测模块,对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
行人位置扩展模块,根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
行人目标与背景的图像层分割模块,利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
行人目标图像层的确定模块,根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
行人目标的精确位置定位模块,根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.人群视频图像中行人图像属性的精确标注方法,其特征在于,包括以下步骤:
S1、对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
S2、根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
S3、利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
S4、根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
S5、根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
2.根据权利要求1所述的精确标注方法,其特征在于,步骤S2进行行人位置的向外扩展时,行人位置的扩大数值根据行人目标位置结果置信度进行计算;行人目标位置结果置信度越大,行人位置的扩大数值就越小。
3.根据权利要求2所述的精确标注方法,其特征在于,行人位置的扩大数值δx、δy的取值范围分别在
Figure FDA0002542807740000011
Figure FDA0002542807740000012
δx、δy的计算公式如下:
Figure FDA0002542807740000013
其中行人目标位置结果置信度confi∈(0.5,1)。
4.根据权利要求1所述的精确标注方法,其特征在于,步骤S4所述λ的取值范围为:0.2﹤λ﹤0.6。
5.根据权利要求1所述的精确标注方法,其特征在于,步骤S3采用RACSIS语义分割方法,把行人位置扩展后的图片区域作为输入,通过改进空间维度上的金字塔空洞池化结构的方法,得到行人目标与背景的各分割目标图像层;
RACSIS语义分割是一种深度卷积神经网络的方法,该方法通过设计一种深度神经网络模型,首先采用残差网络ResNet-50或残差网络ResNet-101模型进行特征映射,然后通过金字塔空洞池化和图像池化来改善残差网络ResNet-50或残差网络ResNet-101模型,最后通过1x1的卷积完成图像重构与分割映射,得到行人目标与其他背景的分割目标图像层。
6.根据权利要求3所述的精确标注方法,其特征在于,步骤S4中行人目标图像层的确定及各分割目标图像层的像素个数统计方法如下:
1)以中心位置
Figure FDA0002542807740000021
为起始点,标记该起始点所在的图像层为第一图层,并记录起始点的像素值为(r1,g1,b1),像素和为1,记为sum(ri,gi,bi)=1,i为图层标记号;
2)采用回字形的搜索路径,分别取右、右下、下、左下、左、左上、上、右上各8个邻域点的像素值与起始点的像素值进行比较,相同则跟随起始点,并标记相应的邻域点所在的图像层为第一图层,像素和sum(ri,gi,bi)加1,否则标记相应的邻域点所在的图像层为新的图层,图层标记号为i+1,像素和sum(ri+1,gi+1,bi+1)加1;
3)继续在搜索窗口
Figure FDA0002542807740000022
进行搜索,分别统计得到各图层的像素和sum(ri,gi,bi),i=1,2,...,n,直到遍历完搜索窗口的所有像素点;
4)根据统计步骤3)得到的各图层的像素和sum(ri,gi,bi),取像素和summax(ri',gi',bi')值最大的图层标记为i',并判断为行人目标图像层,像素值置为255,其他的图层则判断为背景图像层,像素值置0。
7.根据权利要求1所述的精确标注方法,其特征在于,所述精确标注方法还包括:
S6、对于第i+1帧图像,重复S1-S5得到行人目标的精确位置信息,并对第i帧图像得到的行人目标进行跟踪处理,以确定第i+1帧图像的行人目标精确位置和唯一性标识号信息;
S7、对每个唯一性标识号的行人目标进行图像属性标注,根据视频帧之间的关联性和行人图像属性在视频时间段内的不变性,即可完成同一行人目标的所有视频帧图像属性标注。
8.人群视频图像中行人图像属性的精确标注系统,其特征在于,包括:
行人目标的位置信息检测模块,对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
行人位置扩展模块,根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
行人目标与背景的图像层分割模块,利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
行人目标图像层的确定模块,根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
行人目标的精确位置定位模块,根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
9.根据权利要求8所述的精确标注系统,其特征在于,所述行人位置扩展模块进行行人位置的向外扩展时,行人位置的扩大数值根据行人目标位置结果置信度进行计算;行人目标位置结果置信度越大,行人位置的扩大数值就越小。
10.根据权利要求8所述的精确标注系统,其特征在于,行人位置的扩大数值δx、δy的取值范围分别在
Figure FDA0002542807740000031
Figure FDA0002542807740000032
δx、δy的计算公式如下:
Figure FDA0002542807740000033
其中行人目标位置结果置信度confi∈(0.5,1)。
CN201910004514.7A 2019-01-03 2019-01-03 人群视频图像中行人图像属性的精确标注方法及系统 Active CN109740537B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910004514.7A CN109740537B (zh) 2019-01-03 2019-01-03 人群视频图像中行人图像属性的精确标注方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910004514.7A CN109740537B (zh) 2019-01-03 2019-01-03 人群视频图像中行人图像属性的精确标注方法及系统

Publications (2)

Publication Number Publication Date
CN109740537A CN109740537A (zh) 2019-05-10
CN109740537B true CN109740537B (zh) 2020-09-15

Family

ID=66363298

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910004514.7A Active CN109740537B (zh) 2019-01-03 2019-01-03 人群视频图像中行人图像属性的精确标注方法及系统

Country Status (1)

Country Link
CN (1) CN109740537B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110298248A (zh) * 2019-05-27 2019-10-01 重庆高开清芯科技产业发展有限公司 一种基于语义分割的多目标跟踪方法及系统
CN112149475A (zh) * 2019-06-28 2020-12-29 杭州海康威视数字技术股份有限公司 行李箱验证方法及装置、系统、存储介质
CN112449083A (zh) * 2019-08-27 2021-03-05 深圳市麦道微电子技术有限公司 一种汽车夜视摄像头
CN110930417B (zh) * 2019-11-26 2023-08-08 腾讯科技(深圳)有限公司 图像分割模型的训练方法和装置、图像分割方法和装置
US11584004B2 (en) * 2019-12-17 2023-02-21 X Development Llc Autonomous object learning by robots triggered by remote operators
CN111444976A (zh) * 2020-04-02 2020-07-24 Oppo广东移动通信有限公司 目标检测方法、装置、电子设备和可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103854290A (zh) * 2014-03-25 2014-06-11 中国科学院光电技术研究所 一种结合骨架特征点和分布场描述子的扩展目标跟踪方法
CN107273810A (zh) * 2017-05-22 2017-10-20 武汉神目信息技术有限公司 一种自动学习划定人脸检测兴趣区域的方法
CN107270896A (zh) * 2017-06-20 2017-10-20 华中科技大学 一种行人定位与轨迹跟踪方法和系统
CN107944403A (zh) * 2017-11-29 2018-04-20 青岛海信网络科技股份有限公司 一种图像中的行人属性检测方法及装置
CN108230351A (zh) * 2016-12-15 2018-06-29 上海杰轩智能科技有限公司 基于双目立体视觉行人检测的柜台评价方法与系统
CN108921056A (zh) * 2018-06-18 2018-11-30 上海大学 基于神经网络面向汽车辅助驾驶的行人检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011152841A1 (en) * 2010-06-01 2011-12-08 Hewlett-Packard Development Company, L.P. Replacement of a person or object in an image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103854290A (zh) * 2014-03-25 2014-06-11 中国科学院光电技术研究所 一种结合骨架特征点和分布场描述子的扩展目标跟踪方法
CN108230351A (zh) * 2016-12-15 2018-06-29 上海杰轩智能科技有限公司 基于双目立体视觉行人检测的柜台评价方法与系统
CN107273810A (zh) * 2017-05-22 2017-10-20 武汉神目信息技术有限公司 一种自动学习划定人脸检测兴趣区域的方法
CN107270896A (zh) * 2017-06-20 2017-10-20 华中科技大学 一种行人定位与轨迹跟踪方法和系统
CN107944403A (zh) * 2017-11-29 2018-04-20 青岛海信网络科技股份有限公司 一种图像中的行人属性检测方法及装置
CN108921056A (zh) * 2018-06-18 2018-11-30 上海大学 基于神经网络面向汽车辅助驾驶的行人检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于区域复合概率的行人候选框生成;覃剑 等;《电子学报》;20180731;第46卷(第7期);第1719-1725页 *
基于卷积神经网络的监控场景下行人属性识别;胡诚 等;《现代计算机》;20180131(第1期);第22-26页 *

Also Published As

Publication number Publication date
CN109740537A (zh) 2019-05-10

Similar Documents

Publication Publication Date Title
CN109740537B (zh) 人群视频图像中行人图像属性的精确标注方法及系统
CN108510000B (zh) 复杂场景下行人细粒度属性的检测与识别方法
Shen et al. Submodular trajectories for better motion segmentation in videos
Chen et al. Video saliency detection via spatial-temporal fusion and low-rank coherency diffusion
Zhu et al. Discriminative 3D morphable model fitting
CN110033007B (zh) 基于深度姿态预估和多特征融合的行人衣着属性识别方法
KR20200070409A (ko) 다중 특징 검색 및 변형에 기반한 인체 헤어스타일 생성 방법
CN110688947B (zh) 一种同步实现人脸三维点云特征点定位和人脸分割的方法
CN106815323B (zh) 一种基于显著性检测的跨域视觉检索方法
CN111652892A (zh) 一种基于深度学习的遥感影像建筑物矢量提取及优化方法
CN109829353B (zh) 一种基于空间约束的人脸图像风格化方法
CN111476251A (zh) 一种遥感影像匹配方法及装置
CN111368759B (zh) 基于单目视觉的移动机器人语义地图构建系统
CN111340881B (zh) 一种动态场景下基于语义分割的直接法视觉定位方法
WO2024021523A1 (zh) 基于图网络的大脑皮层表面全自动分割方法及系统
CN113592894B (zh) 一种基于边界框和同现特征预测的图像分割方法
CN113362341B (zh) 基于超像素结构约束的空地红外目标跟踪数据集标注方法
CN113902991A (zh) 一种基于级联特征融合的孪生网络目标跟踪方法
Kim et al. Robust facial landmark extraction scheme using multiple convolutional neural networks
KR20220004009A (ko) 키 포인트 검출 방법, 장치, 전자 기기 및 저장 매체
CN110909778B (zh) 一种基于几何一致性的图像语义特征匹配方法
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及系统
CN107729863B (zh) 人体指静脉识别方法
Diers et al. A survey of methods for automated quality control based on images
CN113780040A (zh) 唇部关键点的定位方法及装置、存储介质、电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant