CN109740537A - 人群视频图像中行人图像属性的精确标注方法及系统 - Google Patents
人群视频图像中行人图像属性的精确标注方法及系统 Download PDFInfo
- Publication number
- CN109740537A CN109740537A CN201910004514.7A CN201910004514A CN109740537A CN 109740537 A CN109740537 A CN 109740537A CN 201910004514 A CN201910004514 A CN 201910004514A CN 109740537 A CN109740537 A CN 109740537A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- pedestrian target
- image
- target
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于图像处理技术,为人群视频图像中行人图像属性的精确标注方法及系统,其方法对视频数据的每一帧图像进行行人目标定位,利用位置信息、结果置信度和唯一性标识号表示行人目标的检测位置信息;根据置信度进行行人位置的向外扩展;对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;以扩大位置的最大值为中心位置,行人位置宽高λ倍为宽高确定搜索窗口,统计搜索窗口内各分割目标图像层的像素个数总和,总和最大的确定为行人目标图像层;确定行人目标区域的最小矩形框,得到行人目标的精确位置。本发明有效解决了视频图像中人群的行人图像属性标注精度不足、逐帧视频标注工作量大的问题。
Description
技术领域
本发明涉及图像处理技术,具体为人群视频图像中行人图像属性的精确标注方法及系统。
背景技术
行人图像属性主要包括性别、年龄、是否戴眼镜、随身携带物品(比如背包、挎包、手提包、行李箱、打伞等)类型和颜色、衣着颜色和样式等。随着大数据、云计算技术的发展,行人图像属性识别技术广泛应用于视频图像结构化检索、大数据分析、视频治安防控、图侦破案等。因此,对行人图像属性的资源和结构化描述信息的需求是海量的。目前,对视频图像的行人图像属性的识别多采用机器学习的方法,需要先进行大量的、精确的行人图像属性标注,生成训练样本数据用于模型的训练和优化。
随着大数据、深度学习技术的发展,多目标行人图像属性识别的技术也逐渐转向深度学习。深度学习的网络模型训练需要大量、高质量的行人图像属性标注数据,而这些属性标注数据目前大多采用人工手动标注。人工手动标注数据存在以下的缺点:
1)标注工作量大、效率低,特别是针对视频的行人图像属性标注,如果每一帧图像都采用人工手动标注,需要标注的数据更是海量;
2)采用人工标注的行人图像属性存在一定的主观性、不一致性,特别是标注出的行人位置框、特征点位置信息存在较大的偏差;
3)针对视频图像中的人群,由于行人间存在相互遮挡、相互重叠,人工标注行人位置框、特征点位置的精度更是存在不足。
发明内容
为解决现有技术所存在的技术问题,本发明提供人群视频图像中行人图像属性的精确标注方法,该方法先粗略确定行人的位置信息,再采用基于深度学习的图像语义分割算法分割出行人目标,完成行人目标位置的精确标注,再进行目标的跟踪处理得到行人目标的ID号,根据ID号对行人目标进行图像属性的标注,有效地解决了视频图像中人群的行人图像属性标注精度不足、逐帧视频标注工作量大的问题。
本发明还提供人群视频图像中行人图像属性的精确标注系统。
本发明的精确标注方法采用以下技术方案来实现:人群视频图像中行人图像属性的精确标注方法,包括以下步骤:
S1、对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
S2、根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
S3、利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
S4、根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
S5、根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
优选地,步骤S2进行行人位置的向外扩展时,行人位置的扩大数值根据行人目标位置结果置信度进行计算;行人目标位置结果置信度越大,行人位置的扩大数值就越小。行人位置的扩大数值δx、δy的取值范围分别在和δx、δy的计算公式如下:
其中行人目标位置结果置信度confi∈(0.5,1)。
优选地,步骤S3采用RACSIS语义分割方法,把行人位置扩展后的图片区域作为输入,通过改进空间维度上的金字塔空洞池化结构的方法,得到行人目标与背景的各分割目标图像层。
本发明精确标注系统采用如下技术方案实现:人群视频图像中行人图像属性的精确标注系统,包括:
行人目标的位置信息检测模块,对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
行人位置扩展模块,根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
行人目标与背景的图像层分割模块,利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
行人目标图像层的确定模块,根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
行人目标的精确位置定位模块,根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明通过基于深度学习的目标检测算法先粗略确定行人的位置信息,再采用基于深度学习的图像语义分割算法分割出行人目标,从而完成行人目标位置的精确标注,然后再进行目标的跟踪处理,得到行人目标的ID号,最后通过对同一ID号的行人目标进行图像属性的标注,即可完成同一行人目标的所有视频帧图像属性标注,从而提高人工手动标注视频图像的效率和质量,有效地解决视频图像中人群的行人图像属性标注精度不足、逐帧视频标注工作量大的问题。
2、本发明在视频标注前,采用深度学习目标检测算法对每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,并对该帧图像的每个行人目标采用唯一性ID标识进行标示,准确度高。
3、根据行人位置结果的置信度,通过区域扩展算法将行人位置向外扩展,以确保行人位置框所在图像区域包含人体的所有部位,从而使后续利用语义分割模型进行行人位置区域的图像分割时,具有较高的准确性。
附图说明
图1是本发明的流程图;
图2是分割图层及搜索窗口的确定示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1,本发明提出了人群视频图像中行人图像属性的精确标注方法,主要包括以下步骤:
步骤1:开发一款图形界面的辅助标注软件工具,导入视频数据,获取视频帧序列,准备进行标注。
步骤2:采用深度学习目标检测算法对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,并对该帧图像的每个行人目标采用唯一性ID标识进行标示,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号对行人目标的检测位置信息表示为:
Pi=(xi,yi,wi,hi,confi,idi)
其中xi、yi、wi、hi为行人目标的位置信息,confi为行人目标位置结果的置信度,idi为行人目标的唯一性标识号,i为视频帧序号。
步骤3:为确保行人位置框包含行人身体各部位,根据步骤2得到的行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息为:
P'i=(xi-δx,yi-δy,wi+2*δx,hi+2*δy,confi,idi)
其中δx、δy为行人位置的扩大数值,可根据置信度confi进行计算,扩大数值的取值范围分别在和一般地,置信度confi的值越大,需要扩大的行人位置值δx、δy则越小,为了反映δx、δy与置信度confi的上述映射关系,特设计δx、δy的计算公式如下:
其中confi∈(0.5,1)。
步骤4:利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置(xi-δx,yi-δy,wi+2*δx,hi+2*δy)区域进行图像分割,具体为采用RACSIS(Rethinking AtrousConvolution for Semantic Image Segmentation)等语义分割方法,把行人位置扩展后的图片区域作为输入,通过改进空间维度上的金字塔空洞池化(Atrous Spatial PyramidPooling,ASPP)结构的方法,得到行人目标与背景的各分割目标图像层。
RACSIS(Rethinking Atrous Convolution for Semantic Image Segmentation)语义分割是一种深度卷积神经网络(CNN)的方法,该方法通过设计一种深度神经网络模型,首先采用残差网络ResNet-50或残差网络ResNet-101模型进行特征映射(FeatureMapping),然后通过金字塔空洞池化(Atrous Spatial Pyramid Pooling,ASPP)和图像池化(Image Prooling)来改善残差网络ResNe模型,最后通过1x1的卷积完成图像重构与分割映射(Segmentation Mapping),得到行人目标与其他背景的分割目标图像层,如图2所示。
步骤5:根据步骤2得到行人目标的Pi=(xi,yi,wi,hi,confi,idi)位置信息,以扩大位置的最大值为中心位置、行人位置宽高的λ倍为宽高(即和)确定行人目标区域搜索窗口0.2﹤λ﹤0.6,一般取λ=0.3,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层。
搜索窗口的确定示意如图2所示,其中21为检测位置(xi,yi,wi,hi),22为扩大位置(xi-δx,yi-δy,wi+2*δx,hi+2*δy),23为搜索窗口24为行人精确位置(x0i,y0i,w0i,h0i)。
行人目标图像层的确定及各分割目标图像层的像素个数统计方法如下:
1)以中心位置为起始点,标记该起始点所在的图像层为第一图层,并记录起始点的像素值为(r1,g1,b1),像素和为1,记为sum(ri,gi,bi)=1(i=1),i为图层标记号;
2)采用回字形的搜索路径,分别取右、右下、下、左下、左、左上、上、右上各8个邻域点的像素值与起始点的像素值进行比较,相同则跟随起始点,并标记相应的邻域点所在的图像层为第一图层,像素和sum(ri,gi,bi)(i=1)加1,否则标记相应的邻域点所在的图像层为新的图层,图层标记号为i+1,像素和sum(ri+1,gi+1,bi+1)加1;
3)继续按上述步骤2)在确定好的搜索窗口进行搜索,分别统计得到各图层的像素和sum(ri,gi,bi),i=1,2,...,n,直到遍历完搜索窗口的所有像素点;
4)根据统计步骤3)得到的各图层的像素和sum(ri,gi,bi),取像素和summax(ri',gi',bi')值最大的图层标记为i',并判断为行人目标图像层,像素值置为255,其他的图层则判断为背景图像层,像素值置0。
步骤6:根据上述步骤5确定的行人目标图像层,则可确定包含像素值为255行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置(x0i,y0i,w0i,h0i)为:
P0'i=(x0i,y0i,w0i,h0i,confi,idi)
行人目标区域的最小矩形框的确定方法如下:
1)在上述步骤5确定的行人目标图像层区域窗口,以(0,0)为位置(x,y)的起始点,按宽、高分别递增的方法进行遍历搜索;
2)最小矩形框的位置记为(xmin,ymin,xmax,ymax),当遍历搜索像素值为255的位置(x,y)时,分别记录矩形框上、下、左、右4边框的最小、最大值,直到完成图像的遍历搜索,得到的最小矩形框位置(xmin,ymin,xmax,ymax)即为行人目标的精确位置(x0i,y0i,w0i,h0i),其中x0i=xmin,y0i=ymin,w0i=xmin-xmin,h0i=ymax-ymin。
步骤7:对于第i+1帧图像,重复步骤2-6得到行人目标的精确位置信息,并对第i帧图像得到的行人目标进行跟踪处理,以确定第i+1帧图像的行人目标精确位置和唯一性标识号信息:
P0'i+1=(x0i+1,y0i+1,w0i+1,h0i+1,confi+1,idi+1)
其中xi+1、yi+1、wi+1、hi+1为行人目标的位置信息,confi+1为行人目标位置结果的置信度,idi+1为行人目标的唯一性标识号,i+1为视频帧序号。
行人目标跟踪处理的详细步骤如下:
1)对第i+1检测出的每一个行人目标框(xi+1,yi+1,wi+1,hi+1)j,计算与上一帧i检测出的每一个行人目标框(xi,yi,wi,hi)j'的交叠率IOUjj'(Intersection-Over-Union):
并记录其最大的IOUmax和相应的行人目标ID号idi。
2)当IOUmax大于一定的阈值时,则当前帧i+1检测出行人目标的ID号跟随上一帧i行人目标的idi号,IOUjj'匹配成功,否则对该行人目标的ID号赋予新的值。
3)对上一帧i未IOUjj'匹配成功的行人目标进行基于特征的跟踪处理,若跟踪成功,则得到跟踪结果目标框和对应的行人目标ID号;若跟踪失败,则直接转到步骤9。
步骤8:对每个ID号的行人目标进行图像属性标注,根据视频帧之间的关联性和行人图像属性在视频时间段内的不变性,即可完成同一行人目标的所有视频帧图像属性标注。
步骤9:对上述步骤标注的行人位置和行人目标ID号信息进行人工确认和修正,并对漏标注的行人目标进行位置粗标注,再重复步骤3-8,完成行人图像属性的视频标注。
在本实施例中,人群视频图像中行人图像属性的精确标注系统用于实现上述精确标注方法,所包括的各主要模块分别如下:
行人目标的位置信息检测模块,对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
行人位置扩展模块,根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
行人目标与背景的图像层分割模块,利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
行人目标图像层的确定模块,根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
行人目标的精确位置定位模块,根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (10)
1.人群视频图像中行人图像属性的精确标注方法,其特征在于,包括以下步骤:
S1、对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
S2、根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
S3、利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
S4、根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
S5、根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
2.根据权利要求1所述的精确标注方法,其特征在于,步骤S2进行行人位置的向外扩展时,行人位置的扩大数值根据行人目标位置结果置信度进行计算;行人目标位置结果置信度越大,行人位置的扩大数值就越小。
3.根据权利要求2所述的精确标注方法,其特征在于,行人位置的扩大数值δx、δy的取值范围分别在和δx、δy的计算公式如下:
其中行人目标位置结果置信度confi∈(0.5,1)。
4.根据权利要求1所述的精确标注方法,其特征在于,步骤S4所述λ的取值范围为:0.2﹤λ﹤0.6。
5.根据权利要求1所述的精确标注方法,其特征在于,步骤S3采用RACSIS语义分割方法,把行人位置扩展后的图片区域作为输入,通过改进空间维度上的金字塔空洞池化结构的方法,得到行人目标与背景的各分割目标图像层。
6.根据权利要求3所述的精确标注方法,其特征在于,步骤S4中行人目标图像层的确定及各分割目标图像层的像素个数统计方法如下:
1)以中心位置为起始点,标记该起始点所在的图像层为第一图层,并记录起始点的像素值为(r1,g1,b1),像素和为1,记为sum(ri,gi,bi)=1,i为图层标记号;
2)采用回字形的搜索路径,分别取右、右下、下、左下、左、左上、上、右上各8个邻域点的像素值与起始点的像素值进行比较,相同则跟随起始点,并标记相应的邻域点所在的图像层为第一图层,像素和sum(ri,gi,bi)加1,否则标记相应的邻域点所在的图像层为新的图层,图层标记号为i+1,像素和sum(ri+1,gi+1,bi+1)加1;
3)继续在搜索窗口进行搜索,分别统计得到各图层的像素和sum(ri,gi,bi),i=1,2,...,n,直到遍历完搜索窗口的所有像素点;
4)根据统计步骤3)得到的各图层的像素和sum(ri,gi,bi),取像素和summax(ri',gi',bi')值最大的图层标记为i',并判断为行人目标图像层,像素值置为255,其他的图层则判断为背景图像层,像素值置0。
7.根据权利要求1所述的精确标注方法,其特征在于,所述精确标注方法还包括:
S6、对于第i+1帧图像,重复S1-S5得到行人目标的精确位置信息,并对第i帧图像得到的行人目标进行跟踪处理,以确定第i+1帧图像的行人目标精确位置和唯一性标识号信息;
S7、对每个唯一性标识号的行人目标进行图像属性标注,根据视频帧之间的关联性和行人图像属性在视频时间段内的不变性,即可完成同一行人目标的所有视频帧图像属性标注。
8.人群视频图像中行人图像属性的精确标注系统,其特征在于,包括:
行人目标的位置信息检测模块,对视频数据的每一帧图像进行行人目标定位,得到行人粗略位置和相应的置信度信息,利用行人目标的位置信息、行人目标位置结果置信度和行人目标的唯一性标识号表示行人目标的检测位置信息;
行人位置扩展模块,根据行人目标位置结果置信度,进行行人位置的向外扩展,得到行人目标的扩大位置信息;
行人目标与背景的图像层分割模块,利用基于深度学习的语义分割模型,对向外扩展后得到的行人位置区域进行图像分割,得到行人目标与背景的各分割目标图像层;
行人目标图像层的确定模块,根据行人目标的位置信息,以行人目标的扩大位置的最大值为中心位置,行人位置宽高的λ倍为宽高确定行人目标区域搜索窗口,并统计搜索窗口内各分割目标图像层的像素个数总和,则像素个数总和最大的分割目标图像层确定为行人目标图像层;
行人目标的精确位置定位模块,根据行人目标图像层,确定行人目标区域的最小矩形框,完成行人位置框的精确定位,得到行人目标的精确位置。
9.根据权利要求8所述的精确标注系统,其特征在于,所述行人位置扩展模块进行行人位置的向外扩展时,行人位置的扩大数值根据行人目标位置结果置信度进行计算;行人目标位置结果置信度越大,行人位置的扩大数值就越小。
10.根据权利要求8所述的精确标注系统,其特征在于,行人位置的扩大数值δx、δy的取值范围分别在和δx、δy的计算公式如下:
其中行人目标位置结果置信度confi∈(0.5,1)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910004514.7A CN109740537B (zh) | 2019-01-03 | 2019-01-03 | 人群视频图像中行人图像属性的精确标注方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910004514.7A CN109740537B (zh) | 2019-01-03 | 2019-01-03 | 人群视频图像中行人图像属性的精确标注方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109740537A true CN109740537A (zh) | 2019-05-10 |
CN109740537B CN109740537B (zh) | 2020-09-15 |
Family
ID=66363298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910004514.7A Active CN109740537B (zh) | 2019-01-03 | 2019-01-03 | 人群视频图像中行人图像属性的精确标注方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109740537B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298248A (zh) * | 2019-05-27 | 2019-10-01 | 重庆高开清芯科技产业发展有限公司 | 一种基于语义分割的多目标跟踪方法及系统 |
CN110930417A (zh) * | 2019-11-26 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法和装置、图像分割方法和装置 |
CN111444976A (zh) * | 2020-04-02 | 2020-07-24 | Oppo广东移动通信有限公司 | 目标检测方法、装置、电子设备和可读存储介质 |
CN112149475A (zh) * | 2019-06-28 | 2020-12-29 | 杭州海康威视数字技术股份有限公司 | 行李箱验证方法及装置、系统、存储介质 |
CN112449083A (zh) * | 2019-08-27 | 2021-03-05 | 深圳市麦道微电子技术有限公司 | 一种汽车夜视摄像头 |
CN114728417A (zh) * | 2019-12-17 | 2022-07-08 | X开发有限责任公司 | 由远程操作员触发的机器人自主对象学习 |
CN117290537A (zh) * | 2023-09-28 | 2023-12-26 | 腾讯科技(深圳)有限公司 | 图像搜索方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130094780A1 (en) * | 2010-06-01 | 2013-04-18 | Hewlett-Packard Development Company, L.P. | Replacement of a Person or Object in an Image |
CN103854290A (zh) * | 2014-03-25 | 2014-06-11 | 中国科学院光电技术研究所 | 一种结合骨架特征点和分布场描述子的扩展目标跟踪方法 |
CN107273810A (zh) * | 2017-05-22 | 2017-10-20 | 武汉神目信息技术有限公司 | 一种自动学习划定人脸检测兴趣区域的方法 |
CN107270896A (zh) * | 2017-06-20 | 2017-10-20 | 华中科技大学 | 一种行人定位与轨迹跟踪方法和系统 |
CN107944403A (zh) * | 2017-11-29 | 2018-04-20 | 青岛海信网络科技股份有限公司 | 一种图像中的行人属性检测方法及装置 |
CN108230351A (zh) * | 2016-12-15 | 2018-06-29 | 上海杰轩智能科技有限公司 | 基于双目立体视觉行人检测的柜台评价方法与系统 |
CN108921056A (zh) * | 2018-06-18 | 2018-11-30 | 上海大学 | 基于神经网络面向汽车辅助驾驶的行人检测方法 |
-
2019
- 2019-01-03 CN CN201910004514.7A patent/CN109740537B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130094780A1 (en) * | 2010-06-01 | 2013-04-18 | Hewlett-Packard Development Company, L.P. | Replacement of a Person or Object in an Image |
CN103854290A (zh) * | 2014-03-25 | 2014-06-11 | 中国科学院光电技术研究所 | 一种结合骨架特征点和分布场描述子的扩展目标跟踪方法 |
CN108230351A (zh) * | 2016-12-15 | 2018-06-29 | 上海杰轩智能科技有限公司 | 基于双目立体视觉行人检测的柜台评价方法与系统 |
CN107273810A (zh) * | 2017-05-22 | 2017-10-20 | 武汉神目信息技术有限公司 | 一种自动学习划定人脸检测兴趣区域的方法 |
CN107270896A (zh) * | 2017-06-20 | 2017-10-20 | 华中科技大学 | 一种行人定位与轨迹跟踪方法和系统 |
CN107944403A (zh) * | 2017-11-29 | 2018-04-20 | 青岛海信网络科技股份有限公司 | 一种图像中的行人属性检测方法及装置 |
CN108921056A (zh) * | 2018-06-18 | 2018-11-30 | 上海大学 | 基于神经网络面向汽车辅助驾驶的行人检测方法 |
Non-Patent Citations (2)
Title |
---|
胡诚 等: "基于卷积神经网络的监控场景下行人属性识别", 《现代计算机》 * |
覃剑 等: "基于区域复合概率的行人候选框生成", 《电子学报》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298248A (zh) * | 2019-05-27 | 2019-10-01 | 重庆高开清芯科技产业发展有限公司 | 一种基于语义分割的多目标跟踪方法及系统 |
CN112149475A (zh) * | 2019-06-28 | 2020-12-29 | 杭州海康威视数字技术股份有限公司 | 行李箱验证方法及装置、系统、存储介质 |
CN112149475B (zh) * | 2019-06-28 | 2024-06-04 | 杭州海康威视数字技术股份有限公司 | 行李箱验证方法及装置、系统、存储介质 |
CN112449083A (zh) * | 2019-08-27 | 2021-03-05 | 深圳市麦道微电子技术有限公司 | 一种汽车夜视摄像头 |
CN110930417A (zh) * | 2019-11-26 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法和装置、图像分割方法和装置 |
CN110930417B (zh) * | 2019-11-26 | 2023-08-08 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法和装置、图像分割方法和装置 |
CN114728417A (zh) * | 2019-12-17 | 2022-07-08 | X开发有限责任公司 | 由远程操作员触发的机器人自主对象学习 |
CN114728417B (zh) * | 2019-12-17 | 2024-04-16 | X开发有限责任公司 | 由远程操作员触发的机器人自主对象学习的方法及设备 |
CN111444976A (zh) * | 2020-04-02 | 2020-07-24 | Oppo广东移动通信有限公司 | 目标检测方法、装置、电子设备和可读存储介质 |
CN117290537A (zh) * | 2023-09-28 | 2023-12-26 | 腾讯科技(深圳)有限公司 | 图像搜索方法、装置、设备及存储介质 |
CN117290537B (zh) * | 2023-09-28 | 2024-06-07 | 腾讯科技(深圳)有限公司 | 图像搜索方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109740537B (zh) | 2020-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740537A (zh) | 人群视频图像中行人图像属性的精确标注方法及系统 | |
Feng et al. | 2d3d-matchnet: Learning to match keypoints across 2d image and 3d point cloud | |
CN111060115B (zh) | 一种基于图像边缘特征的视觉slam方法及系统 | |
Häne et al. | Dense semantic 3d reconstruction | |
Suveg et al. | Reconstruction of 3D building models from aerial images and maps | |
Strasdat et al. | Double window optimisation for constant time visual SLAM | |
Zhang et al. | Semantic segmentation of urban scenes using dense depth maps | |
CN105809651B (zh) | 基于边缘非相似性对比的图像显著性检测方法 | |
CN112784736B (zh) | 一种多模态特征融合的人物交互行为识别方法 | |
CN111832484B (zh) | 一种基于卷积感知哈希算法的回环检测方法 | |
CN106709568A (zh) | 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法 | |
CN110047139B (zh) | 一种指定目标三维重建方法及系统 | |
CN107481279A (zh) | 一种单目视频深度图计算方法 | |
CN111340881B (zh) | 一种动态场景下基于语义分割的直接法视觉定位方法 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN103761747B (zh) | 一种基于加权分布场的目标跟踪方法 | |
CN110909778B (zh) | 一种基于几何一致性的图像语义特征匹配方法 | |
CN106295657A (zh) | 一种视频数据结构化过程中提取人体高度特征的方法 | |
Li et al. | Visual slam in dynamic scenes based on object tracking and static points detection | |
CN108961385A (zh) | 一种slam构图方法及装置 | |
CN117557804A (zh) | 联合目标结构嵌入和多层次特征融合的多标签分类方法 | |
Jiang et al. | Extracting 3-D structural lines of building from ALS point clouds using graph neural network embedded with corner information | |
CN111368761A (zh) | 店铺营业状态识别方法、装置、可读存储介质和设备 | |
CN114067128A (zh) | 一种基于语义特征的slam回环检测方法 | |
Park et al. | Estimating the camera direction of a geotagged image using reference images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |