CN111428546B - 图像中人体标记方法、装置、电子设备及存储介质 - Google Patents
图像中人体标记方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111428546B CN111428546B CN201910290451.6A CN201910290451A CN111428546B CN 111428546 B CN111428546 B CN 111428546B CN 201910290451 A CN201910290451 A CN 201910290451A CN 111428546 B CN111428546 B CN 111428546B
- Authority
- CN
- China
- Prior art keywords
- head
- image
- target
- marked
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000001514 detection method Methods 0.000 claims abstract description 55
- 239000000203 mixture Substances 0.000 claims abstract description 44
- 238000009826 distribution Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 238000002372 labelling Methods 0.000 description 7
- 210000000746 body region Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000009795 derivation Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 208000011580 syndromic disease Diseases 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供了图像中人体标记方法、装置、电子设备及存储介质,该方法包括:获取待标记图像的目标四边形区域,其中,目标四边形区域中包括标准检测目标;获取目标四边形区域各顶点的位置,按照标准检测目标与目标四边形区域各顶点的位置的对应关系,确定场景透视关系;对待标记图像进行分析,确定待标记图像中人头的位置;根据场景透视关系及人头的位置,建立人头的二维高斯模型;按照人头的二维高斯模型,建立人头对应的人身的二维高斯模型,得到待标记图像中人体的二维混合高斯模型,其中,人体的二维混合高斯模型包括人头的二维高斯模型及人身的二维高斯模型。本申请实施例提供的图像中人体标记方法,可以提高了人体区域标记的准确度。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及图像中人体标记方法、装置、电子设备及存储介质。
背景技术
随着人们安全意识的提高,监控技术逐渐遍布于生活中的各个角落。随着计算机视觉技术的发展,使得对海量视频数据的处理成为可能。相关技术中,在对图像中的人体进行标记时,通过卷积神经网络等机器学习模型对待标记图像进行分析,从而得到人体的矩形框。然而通过上述标记方法,仅能够得到人体的矩形框,在矩形框中除了人体外还有很多非人体区域,人体区域标记不够准确。
发明内容
本申请实施例的目的在于提供一种图像中人体标记方法、装置、电子设备及存储介质,以实现提高人体区域标记的准确度。具体技术方案如下:
第一方面,本申请实施例提供了一种图像中人体标记方法,所述方法包括:
获取待标记图像的目标四边形区域,其中,所述目标四边形区域中包括标准检测目标;
获取所述目标四边形区域各顶点的位置,按照所述标准检测目标与所述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,其中,所述场景透视关系表征所述待标记图像中各目标点的高度;
对所述待标记图像进行分析,确定所述待标记图像中人头的位置;
根据所述场景透视关系及所述人头的位置,建立所述人头的二维高斯模型;
按照所述人头的二维高斯模型,建立所述人头对应的人身的二维高斯模型,得到所述待标记图像中人体的二维混合高斯模型,其中,所述人体的二维混合高斯模型包括所述人头的二维高斯模型及所述人身的二维高斯模型。
可选的,所述获取待标记图像的目标四边形区域包括:
获取针对待标记图像的区域标记信息;
按照所述区域标记信息,在所述待标记图像中标记目标四边形区域。
可选的,所述目标四边形区域与所述标准检测目标垂直。
可选的,所述标准检测目标分别位于所述目标四边形区域平行边的中点,所述获取所述目标四边形区域各顶点的位置,按照所述标准检测目标与所述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,包括:
获取所述目标四边形区域各顶点在竖直方向上的高度,按照所述标准检测目标的实际高度及所述目标四边形区域各顶点的高度,确定所述目标四边形区域中各目标点的高度,得到场景透视关系。
可选的,所述根据所述场景透视关系及所述人头的位置,建立所述人头的二维高斯模型,包括:
按照所述人头的位置,确定所述人头的中心坐标;
根据所述场景透视关系及所述人头的中心坐标,得到所述人头的直径;
根据所述人头的中心坐标及所述人头的直径,建立所述人头的二维高斯模型。
可选的,所述按照所述人头的二维高斯模型,建立所述待标记图像中人身的二维高斯模型,得到所述待标记图像中人体的二维混合高斯模型,包括:
按照所述人头的二维高斯模型,确定所述人头对应的人身的中心坐标及所述人身的长度和宽度;
按照所述人身的中心坐标及所述人身的长度和宽度,建立所述人身的二维高斯模型,得到所述待标记图像中人体的二维混合高斯模型。
可选的,本申请实施例的图像中人体标记方法还包括:
对所述待标记图像中各人体的二维混合高斯模型进行积分,得到所述待标记图像中人体的数量。
第二方面,本申请实施例提供了一种图像中人体标记装置,所述装置包括:
四边形区域获取模块,用于获取待标记图像的目标四边形区域,其中,所述目标四边形区域中包括标准检测目标;
透视关系确定模块,用于获取所述目标四边形区域各顶点的位置,按照所述标准检测目标与所述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,其中,所述场景透视关系表征所述待标记图像中各目标点的高度;
人头位置确定模块,用于对所述待标记图像进行分析,确定所述待标记图像中人头的位置;
人头模型建立模块,用于根据所述场景透视关系及所述人头的位置,建立所述人头的二维高斯模型;
人身模型建立模块,用于按照所述人头的二维高斯模型,建立所述人头对应的人身的二维高斯模型,得到所述待标记图像中人体的二维混合高斯模型,其中,所述人体的二维混合高斯模型包括所述人头的二维高斯模型及所述人身的二维高斯模型。
可选的,所述四边形区域获取模块包括:
标记信息获取子模块,用于获取针对待标记图像的区域标记信息;
目标区域标记子模块,用于按照所述区域标记信息,在所述待标记图像中标记目标四边形区域,其中,所述目标四边形区域中包括标准检测目标。
可选的,所述目标四边形区域与所述标准检测目标垂直。
可选的,所述标准检测目标分别位于所述目标四边形区域平行边的中点,所述透视关系确定模块,具体用于:
获取所述目标四边形区域各顶点在竖直方向上的高度,按照所述标准检测目标的实际高度及所述目标四边形区域各顶点的高度,确定所述目标四边形区域中各目标点的高度,得到场景透视关系。
可选的,所述人头模型建立模块,包括:
人头坐标确定子模块,用于按照所述人头的位置,确定所述人头的中心坐标;
人头直径确定子模块,用于根据所述场景透视关系及所述人头的中心坐标,得到所述人头的直径;
人头高斯模型确定子模块,用于根据所述人头的中心坐标及所述人头的直径,建立所述人头的二维高斯模型。
可选的,所述人身模型建立模块,包括:
人身参数确定子模块,用于按照所述人头的二维高斯模型,确定所述人头对应的人身的中心坐标及所述人身的长度和宽度;
人身高斯模型确定子模块,用于按照所述人身的中心坐标及所述人身的长度和宽度,建立所述人身的二维高斯模型,得到所述待标记图像中人体的二维混合高斯模型。
可选的,本申请实施例的图像中人体标记装置还包括:
人数确定子模块,用于对所述待标记图像中各人体的二维混合高斯模型进行积分,得到所述待标记图像中人体的数量。
第三方面,本申请实施例提供了一种电子设备,包括处理器和存储器;
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序时,实现上述第一方面任一所述的图像中人体标记方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面任一所述的图像中人体标记方法。
本申请实施例提供的图像中人体标记方法、装置、电子设备及存储介质,获取待标记图像的目标四边形区域,其中,目标四边形区域中包括标准检测目标;获取目标四边形区域各顶点的位置,按照标准检测目标与目标四边形区域各顶点的位置的对应关系,确定场景透视关系,其中,场景透视关系表征待标记图像中各目标点的高度;对待标记图像进行分析,确定待标记图像中人头的位置;根据场景透视关系及人头的位置,建立人头的二维高斯模型;按照人头的二维高斯模型,建立人头对应的人身的二维高斯模型,得到待标记图像中人体的二维混合高斯模型,其中,人体的二维混合高斯模型包括人头的二维高斯模型及人身的二维高斯模型。通过人头的二维高斯模型及人身的二维高斯模型标注人体,相比于通过检测框标注人体,提高了人体区域标记的准确度,可以确定出人头坐标,人体透视关系,轮廓,人体姿势等信息。当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例的一维正态分布概率密度图;
图2为本申请实施例的两个二维高斯模型叠加成的混合高斯模型的示意图;
图3为本申请实施例的图像中人体标记方法的第一种示意图;
图4为本申请实施例的目标四边形区域的一种示意图;
图5为本申请实施例的计算场景透视关系的一种示意图;
图6为本申请实施例的图像中人体标记方法的第二种示意图;
图7a为本申请实施例的人体高斯模型的三维图像;
图7b为本申请实施例的人体模型的热力图像;
图8为本申请实施例的图像中人体标记方法的第三种示意图;
图9为本申请实施例的图像中人体标记装置的一种示意图;
图10为本申请实施例的电子设备的一种示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
首先,对本申请实施例中的术语进行解释。
高斯分布:高斯分布即正态分布,是一个在数学、物理及工程等领域都非常重要的概率分布,一维的高斯分布在几何上呈现为钟型曲线。其特点:由经验法则知具有高度聚集性,图像具有左右对称性,且在其面积上做积分的结果为1。
经验法则:若假设正确,则约68.3%数值分布在距离平均值1个标准差的范围内,约95.4%数值分布在距离平均值2个标准差的范围内,以及约99.7%数值分布在距离平均值有3个标准差之内的范围。称为“68-95-99.7法则”或“经验法则”。根据经验法则,99%数值分布在距离平均值有2~3个标准差之内的范围,于是在建立人体模型时,我们舍弃3倍标准差以外的数据,方便计算,且误差几乎可以忽略不计。
二维混合高斯模型:二维高斯模型是三维空间中的钟型图像,其投射到平面上的形状为椭圆状,而椭圆中心的坐标位置及形状则由分别由均值和方差控制,如图1所示。二维混合高斯模型指使用K(K为大于1的正整数)个相互独立且不相关的二维高斯模型相叠加,即对应位相加,形成的统计学模型。例如图2所示,表示两个二维高斯模型叠加而成的混合高斯模型。
人体二维混合高斯模型:在图像中人体最显著的部位为头部和身体,因此假设本文将图像中的人体服从二维混合高斯模型,混合高斯模型的K取值为2,也即存在两个波峰,而两个波峰极值点的位置表示人体头部中心和身体中心。图像表现出来与上图类似,但两个高斯模型的均值和方差的确定,则是本文讨论的重点。
数据标注:即机器学习及深度学习中训练模型所使用的标签,本申请实施例的图像中人体标记方法是为了基于现有的训练样本产生更多更丰富的数据标注,减少人工标注工作量。
目标四边形区域:本申请实施例的图像中人体标记方法是针对人群及人体的标注,待标记图像一般是某些固定观测角度的视频场景。由于人体标签是具有视角不变性的,可以根据场景的透视关系,使人体模型具有远小近大的自适应性。而目标四边形区域则是在场景中划定一片矩形区域,用于表示场景的透视关系,一般以标记道路广场等开阔平面为佳。
场景的透视关系模型:场景的透视关系模型是一个具体场景中透视关系的数学模型,是通过严格数学推导得出的一个公式,公式中参数根据目标四边形区域中的4个顶点坐标以及标准检测目标的单位人头长度确定。在透视关系模型中,输入数据为场景任意点的坐标位置,输出数据为以该坐标为中心的人体的高度。
为了提高人体区域标记的准确度,本申请实施例提供了一种图像中人体标记方法,参见图3,该方法包括:
S301,获取待标记图像的目标四边形区域,其中,上述目标四边形区域中包括标准检测目标。
本申请实施例中的图像中人体标记方法可以通过标记系统实现,标记系统为任意能够实现本申请实施例的图像中人体标记方法的系统。例如:
标记系统可以为一种电子设备,包括:处理器、存储器、通信接口和总线;处理器、存储器和通信接口通过总线连接并完成相互间的通信;存储器存储可执行程序代码;处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于执行本申请实施例的图像中人体标记方法。
标记系统还可以为一种应用程序,用于在运行时执行本申请实施例的图像中人体标记方法。
标记系统还可以为一种存储介质,用于存储可执行代码,可执行代码用于执行本申请实施例的图像中人体标记方法。
可选的,上述获取待标记图像的目标四边形区域,包括:
步骤一,获取针对待标记图像的区域标记信息。
标记系统获取针对待标记图像的区域标记信息。该区域标记信息可以为通过机器学习模型确定的,也可以为人工输入的。区域标记信息表征目标四边形区域在待标记图像中的位置,例如,区域标记信息为目标四边形区域的四个顶点在待标记图像中的坐标,或区域标记信息为目标四边形区域各边的位置等。
目标四边形区域可以按照如下选取规则进行选取:标记的目标四边形区域应该尽可能满足水平的要求,即标记平面应该尽可能与被检测人体垂直;目标四边形区域从理论上讲应该是个矩形区域,但在图像中由于透视形变,其形状应为满足透视特性的四边形;所划定的目标四边形区域能够体现场景的透视关系;选择的目标四边形区域要包含尽可能多的检测目标,一般可以划定道路,开阔场地作为标记区域。
步骤二,按照上述区域标记信息,在上述待标记图像中标记目标四边形区域,其中,上述目标四边形区域中包括标准检测目标。
标记系统按照区域标记信息,在待标记图像中标记出目标四边形区域。在一种可能的实施方式中,如图4所示,待标记图像中目标四边形区域为四边形ABCD。
S302,获取上述目标四边形区域各顶点的位置,按照上述标准检测目标与上述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,其中,上述场景透视关系表征上述待标记图像中各目标点的高度。
标准检测目标的高度已知,标记系统按照标准检测目标与目标四边形区域各顶点的相对位置,利用任意相关的计算方法,计算出待标记图像中任一目标点的高度表达式,得到场景透视关系。可选的,上述目标四边形区域与上述标准检测目标垂直。在目标四边形区域与标准检测目标垂直时,计算更加简单。
可选的,上述标准检测目标分别位于上述目标四边形区域平行边的中点,上述获取上述目标四边形区域各顶点的位置,按照上述标准检测目标与上述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,包括:
获取上述目标四边形区域各顶点在竖直方向上的高度,按照上述标准检测目标的实际高度及上述目标四边形区域各顶点的高度,确定上述目标四边形区域中各目标点的高度,得到场景透视关系。
在一种可能的实施方式中,场景透视关系计算方法可以如图5所示。
目标四边形区域为梯形ABCD,其中,AB//CD;F和E分别为AB和CD的中点,P为中线EF上任意一点;I为AD与CB边延长线的焦点,在视觉上称为透视消失点;GI//AB//CD,G、Q、H分别为E、P、F点在竖直方向上的延长线与地平线的交点;h1,h2,h_分别为CD边和AB边中点位置测量的标准检测目标的高度值及中线上点P上标准检测目标的估计高度。
基于相似三角形定理,证明推导h_表达式:
∵GE||FH
∴显然,
∴由相似三角形相似性质理,得
同理可证,
于是可知,
∵由图可知,xG=xE,xH=xF
于是,同理可以得到中线FE上任意一点P上标准检测目标高度公式:
其中,由图可知xQ=xP,xI=xG+|IG|=xE+|IG|
∴|IQ|=xI-xQ=xI-xP
于是,
为了能计算场景中任意一点S处标准检测目标的高度,需得到与点S处于同一截面的中线点P的坐标(xP,yP),显然yP=yS。而xP使用中线公式
于是得到,
综上,由公式(1)、(2)、(3)可得,场景中任意点S=(xS,yS)处标准检测目标的高度公式为:
其中,
∴
其中,yA,yB,yC,yD为标记区域的4个顶点在竖直方向上的坐标,yS为目标点的y方向坐标,h2和h1为标记区域边缘CD和AB中点处标准检测目标的实际测量高度。
S303,对上述待标记图像进行分析,确定上述待标记图像中人头的位置。
标记系统利用计算机视觉技术对待标记图像数据进行分析,确定待标记图像中各人体的人头的位置。
S304,根据上述场景透视关系及上述人头的位置,建立上述人头的二维高斯模型。
标记系统根据场景透视关系及人头的位置,确定人头的长度。按照预设的人头长宽比,确定人头的宽度,从而建立人头的二维高斯模型。
可选的,上述根据上述场景透视关系及上述人头的位置,建立上述人头的二维高斯模型,包括:
步骤一,按照上述人头的位置,确定上述人头的中心坐标。
标记系统按照人头的位置,取人头X坐标的均值及Y坐标的均值作为人体头部的中心坐标。
步骤二,根据上述场景透视关系及上述人头的中心坐标,得到上述人头的直径。
在本申请实施例中,近似的将人头等效为圆形。确定人头模型的中心坐标,即均值坐标(head_x,head_y)。利用上述公式(4)可以计算得到head=(head_x,head_y)处人头的高度即直径h(head)。
步骤三,根据上述人头的中心坐标及上述人头的直径,建立上述人头的二维高斯模型。
假设一个人体服从于用两个二维高斯模型叠加的混合高斯模型。即:
其中,N(theat_head)表示人体头部的二维高斯模型,N(theat_body)表示人体身体的二维高斯模型。假设这两个高斯模型均为独立且不相关的。即:
theat_head=(head_x,head_delta,head_y,head_delta,0)
theat_body=(body_x,body_delta_x,body_y,body_delta_y,0)
head_x及head_y分别为人头模型在x和y方向的均值,即人头的坐标位置。假设人体头部为圆形,head_delta是人头模型在两个方向上的标准差。同理身体模型的参数意义与人头模型类似。根据正态分布的性质,N(theat_head)和N(theat_body)是两个统计独立的正态分布,所以其线性组合也服从正态分布。
人头和人身模型的参数确定比如人头模型中人头的半径、人身模型中人体的长度和宽度,是根据高斯模型的标准偏差的特性来确定的。高斯模型随机变量即定义域的取值范围为(-∞,+∞),而无论人体或者人头尺寸都是一个有界量,为了确定这个有界量需要利用正态分布的标准差性质。
若随机变量服从一维正态分布,如图1所示。则约68%数值分布在距离平均值1个标准差的范围内,约95%数值分布在距离平均值2个标准差的范围内,以及约99.7%数值分布在距离平均值3个标准差的范围内。称为正态分布的"68-95-99.7法则"或"经验法则"。由一维正态分布经验法则可知,随机变量时,实际上就已经包含了几乎所有可以取到的样本点,这意味着即使舍去小于或者大于的样本点,对整体分布情况几乎没有影响。将这个结论推广到二维高斯模型的情况,认为99%以上的样本点分布在以期望坐标(x,y)为中心,为横轴长度,为纵轴长度的椭圆范围内。所以人头模型及人身模型的长度宽度就可以由模型的标准差决定。
根据人头模型的中心坐标(head_x,head_y)及人头的直径h(head),可以确定人头模型参数:从而得到人头的二维高斯模型。
S305,按照上述人头的二维高斯模型,建立上述人头对应的人身的二维高斯模型,得到上述待标记图像中人体的二维混合高斯模型,其中,上述人体的二维混合高斯模型包括上述人头的二维高斯模型及上述人身的二维高斯模型。
标记系统根据预设的人体的头身比例,确定人身的中心坐标及人身的长度和宽度,从而确定人身的二维高斯模型。结合人身的二维高斯模型及人头的认为高斯模型,得到人体的二维高斯模型。
可选的,上述按照上述人头的二维高斯模型,建立上述待标记图像中人身的二维高斯模型,得到上述待标记图像中人体的二维混合高斯模型,包括:
步骤一,按照上述人头的二维高斯模型,确定上述人头对应的人身的中心坐标及上述人身的长度和宽度。
从解剖学的观点看,人身是人头长度的7-8倍,即所谓7头身和8头身标准比例,而肩宽一般为人头的2倍,于是根据人头坐标可推导人身中心坐标:
body_x=head_x,
body_y=head_y+3*head_delta,
根据人头宽度推导人身的长宽:
body_delta_x=head_delta*1.8,
body_delta_y=head_delta*4。
步骤二,按照上述人身的中心坐标及上述人身的长度和宽度,建立上述人身的二维高斯模型,得到上述待标记图像中人体的二维混合高斯模型。
按照人身的中心坐标(body_x=head_x,body_y=head_y+3*head_delta),及人身的宽和长body_delta_x=head_delta*1.8及body_delta_y=head_delta*4,可以确定人身模型的参数:[head_x,head_y+3*head_delta,1.8*head_delta,4*head_delta],从而得到人身的二维高斯模型。结合人身的二维高斯模型及人头的认为高斯模型,得到人体的二维高斯模型。
在本申请实施例中,通过人头的二维高斯模型及人身的二维高斯模型标注人体,相比于通过检测框标注人体,提高了人体区域标记的准确度,可以确定出人头坐标,人体透视关系,轮廓,人体姿势等信息,并且在传统标记方法的基础上不需要增加任何手动标记的工作量,在提高标签数据质量的同时节约标记时间。并且利用场景透视关系对人体建模时,人体头部与身体的相对位置及相对关系,因透视而发生的形变都是计算得到,而非固定值,能够更加精确的包裹被标记人体,具有视角不变性。通过标记人头的长度建立人头的二维高斯模型及人体的二维高斯模型,最终将模型叠加得到的人体的二维高斯模型作为人体标签。该方法较之传统的标记方式不但增加了标签数据所包含的信息量,同在不增加额外的手动标记数据的工作量。除了需要存储标记人体的高斯模型的参数,不需要增加任何额外的存储空间。
可选的,本申请实施例的图像中人体标记方法还包括:
对上述待标记图像中各人体的二维混合高斯模型进行积分,得到上述待标记图像中人体的数量。
标记系统对整个待标记图像中的二维混合高斯模型求积分,计算场景的人数。由于单个人体的二维混合高斯模型服从高斯分布,对其概率密度函数在定义域上做积分结果为1,所以对整个待标记图像的二维混合高斯模型做积分结果为场景中的人体数量。
在本申请实施例中,通过对待标记图像中的二维混合高斯模型求积分,可以得打待标记图像中人体的数量。
本申请实施例还提供了一种图像中人体标记方法,如图6所示。
步骤1,获取待标记图像。
步骤2,在待标记图像中,标记目标四边形区域。
目标四边形区域是针对一个特定的场景,通过机器学习算法或人工手动标记出一块矩形区域。这块区域中应该包含检测目标,并且能够体现场景的透视关系。如图4,在待标记图像中划定整个道路作为目标四边形区域。目标四边形区域的标记要求如下:
第一、目标四边形区域应该尽可能满足水平的要求,即目标四边形区域应该尽可能与检测目标如行人垂直。
第二、目标四边形区域从理论上讲应该是个矩形区域,但实际场景中由于透视形变,其形状应为满足透视特性的四边形。
第三、所划定的目标四边形区域能够体现场景的透视关系。
第四、选择的目标四边形区域要包含尽可能多的检测目标,一般划定道路,开阔场地作为标记区域。
步骤3,目标四边形区域边长测量,并通过采集标准检测目标在目标四边形区域各个边的单位高度,计算场景透视关系。
为了计算场景透视关系,需要测量在区域边缘标准检测目标的高度,并以此数据作为衡量场景透视关系的指标。
例如图5所示,目标四边形区域用ABCD表示,其中,AB//CD;F和E分别为AB和CD的中点,P为中线EF上任意一点;I为AD与CB边延长线的焦点,在视觉上称为透视消失点;GI//AB//CD,G、Q、H分别为E、P、F点在竖直方向上的延长线与地平线的交点;h1,h2,h_分别为CD边和AB边中点位置测量的标准检测目标的高度值及中线上点P上标准检测目标的估计高度;
基于相似三角形定理,证明推导h_表达式:
∵GE||FH
∴显然,
∴由相似三角形相似性质理,得
同理可证,
于是可知,
∵由图可知,xG=xE,xH=xF
于是,同理可以得到中线FE上任意一点P上标准检测目标高度公式:
其中,由图可知xQ=xP,xI=xG+|IG|=xE+|IG|
∴|IQ|=xI-xQ=xI-xP
于是,
为了能计算场景中任意一点S处标准检测目标的高度,需得到与点S处于同一截面的中线点P的坐标(xP,yP),显然yP=yS。而xP使用中线公式
于是得到,
综上,由公式(1),(2),(3)可得,场景中任意点S=(xS,yS)处标准检测目标的高度公式为:
其中,
∴
其中,yA,yB,yC,yD为标定区域的4个顶点在竖直方向上的坐标,yS为目标点的y方向坐标,h2和h1为标定区域边缘CD和AB中点处标准检测目标的实际测量高度。
步骤4,测定步骤2划定的目标四边形区域边长的中点位置处单位人体的头部长度,其中,测定单位人体的头部长度的目的是为了用于计算步骤5中人头宽度。
步骤5,利用步骤4得到的场景透视公式,建立人体混合高斯模型,如图7a-图7b所示,图7a上为人体高斯模型的三维图像,图7b下为人体模型的热力图。
为了建立人体模型,参见图8,首先在图像中的人体最显著的部位是头部和身体,假设一个人体服从于用两个二维高斯模型叠加的混合高斯模型。即:
其中,N(theat_head)表示人头的二维高斯模型,N(theat_body)表示人身的二维高斯模型。假设这两个高斯模型均为独立且不相关的。即:
theat_head=(head_x,head_delta,head_y,head_delta,0)
theat_body=(body_x,body_delta_x,body_y,body_delta_y,0)
其中,head_x及head_y,为头部模型在x和y方向的均值,即人体头部在场景中的坐标位置。另假设人体头部为圆形,所以head_delta是头部模型在两个方向上的标准差。同理身体模型的参数意义与头部模型类似。根据正态分布的性质,N(theat_head)和N(theat_body)是两个统计独立的正态分布,所以其线性组合也服从正态分布,这个特性对后面统计人群数量起关键作用。
人头和人身模型的参数确定比如人头模型中人头的半径、人身模型中人体的长度和宽度,是根据高斯模型的标准偏差的特性来确定的。高斯模型随机变量即定义域的取值范围为(-∞,+∞),而无论人体或者人头尺寸都是一个有界量,为了确定这个有界量需要利用正态分布的标准差性质。
若随机变量服从一维正态分布,如图1所示。则约68%数值分布在距离平均值有1个标准差之内的范围,约95%数值分布在距离平均值有2个标准差之内的范围,以及约99.7%数值分布在距离平均值有3个标准差之内的范围。称这个性质为正态分布的"68-95-99.7法则"或"经验法则"。由一维正态分布经验法则可知,随机变量时,实际上就已经包含了几乎所有可以取到的样本点,这意味着即使我们舍去小于或者大于的样本点,对整体分布情况几乎没有影响。将这个结论推广到二维高斯模型的情况,认为99%以上的样本点分布在以期望坐标(x,y)为中心,为横轴长度,为纵轴长度的椭圆范围内。所以人头模型,人身模型的长度宽度就可以由模型的标准差决定。具体如下:
确定人头模型的中心坐标,即均值坐标(head_x,head_y)。利用上述公式(4)可以计算得到head=(head_x,head_y)处人头的高度即直径h(head)。于是人头模型参数可以表示为:
从解剖学的观点看,人身是人头长度的7-8倍,即所谓7头身和8头身标准比例,而肩宽一般为人头的2倍,于是根据人头坐标可推导人身中心坐标,
body_x=head_x,
body_y=head_y+3*head_delta。
根据人头宽度推导人身的长宽:
body_delta_x=head_delta*1.8,
body_delta_y=head_delta*4。
于是人身模型的参数可以表示为:
[head_x,head_y+3*head_delta,1.8*head_delta,4*head_delta]
至此,人体针对指定场景的人体模型就建立完毕。
步骤6,遍历待标记图像,在图像中所有标记有人头坐标的位置叠加一个人体模型,将场景中的所有人体区域标记出来。场景中的人头标签是已经提前标记完成的,标签就是一个每张图像对应一个数组,数组的每个元素为图像中一个人体头部的中心坐标。于是,依次读取人头坐标,然后作为模型的输入计算人体区域的标签。完成遍历后,输出场景人群的密度图,也是人体区域的标记图。
步骤7,对整个场景的标签求积分,计算场景的人数标签。由于单个人体模型服从高斯分布,对其概率密度函数在定义域上做积分结果为1,所以对整福图像的标签做积分结果为场景中的人体数量。
本申请实施例的图像中人体标记方法通过人头的二维高斯模型及人身的二维高斯模型标注人体,相比于通过检测框标注人体,提高了人体区域标记的准确度。不但可以使标签数据包含人群数量,人头坐标,人体透视关系,轮廓,人体姿势等信息,并且在传统标记方法的基础上不需要增加任何手动标记的工作量,在提高标签数据质量的同时节约标记时间。通过在标记场景中划定兴趣矩形区域并通过严格的数学推导得到场景的透视模型,较之使用线性模型估计场景透视图有了坚实的理论依据,同时提高场景透视图模型的精确度。利用场景的透视模型对人体建模时,人体头部与身体的相对位置,相对关系,因透视而发生的形变都是计算得到,而非固定值,相比其他方法能够更加精确的包裹被标记人体,具有视角不变性。通过标记人头的长度建立人体区域模型,最终将模型叠加方式的到场景的人体区域标签。该方法较之传统的标记方式不但增加了标签数据所包含的信息量,同在不增加额外的手动标记数据的工作量。除了需要存储标记人体的高斯模型的参数,不需要增加任何额外的存储空间。
本申请实施例还提供了一种图像中人体标记装置,参见图9,该装置包括:
四边形区域获取模块901,用于获取待标记图像的目标四边形区域,其中,所述目标四边形区域中包括标准检测目标;
透视关系确定模块902,用于获取上述目标四边形区域各顶点的位置,按照上述标准检测目标与上述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,其中,上述场景透视关系表征上述待标记图像中各目标点的高度;
人头位置确定模块903,用于对上述待标记图像进行分析,确定上述待标记图像中人头的位置;
人头模型建立模块904,用于根据上述场景透视关系及上述人头的位置,建立上述人头的二维高斯模型;
人身模型建立模块905,用于按照上述人头的二维高斯模型,建立上述人头对应的人身的二维高斯模型,得到上述待标记图像中人体的二维混合高斯模型,其中,上述人体的二维混合高斯模型包括上述人头的二维高斯模型及上述人身的二维高斯模型。
可选的,上述四边形区域获取模块901,包括:
标记信息获取子模块,用于获取针对待标记图像的区域标记信息;
目标区域标记子模块,用于按照所述区域标记信息,在所述待标记图像中标记目标四边形区域,其中,所述目标四边形区域中包括标准检测目标。
可选的,上述目标四边形区域与上述标准检测目标垂直。
可选的,上述透视关系确定模块902,具体用于:
获取上述目标四边形区域各顶点在竖直方向上的高度,按照上述标准检测目标的实际高度及上述目标四边形区域各顶点的高度,确定上述目标四边形区域中各目标点的高度,得到场景透视关系。
可选的,上述人头模型建立模块904,包括:
人头坐标确定子模块,用于按照上述人头的位置,确定上述人头的中心坐标;
人头直径确定子模块,用于根据上述场景透视关系及上述人头的中心坐标,得到上述人头的直径;
人头高斯模型确定子模块,用于根据上述人头的中心坐标及上述人头的直径,建立上述人头的二维高斯模型。
可选的,上述人身模型建立模块905,包括:
人身参数确定子模块,用于按照上述人头的二维高斯模型,确定上述人头对应的人身的中心坐标及上述人身的长度和宽度;
人身高斯模型确定子模块,用于按照上述人身的中心坐标及上述人身的长度和宽度,建立上述人身的二维高斯模型,得到上述待标记图像中人体的二维混合高斯模型。
可选的,本申请实施例的图像中人体标记装置还包括:
人数确定子模块,用于对上述待标记图像中各人体的二维混合高斯模型进行积分,得到上述待标记图像中人体的数量。
本申请实施例还提供了一种电子设备,包括处理器和存储器;
上述存储器,用于存放计算机程序;
上述处理器,用于执行上述存储器上所存放的程序时,实现如下步骤:
获取针对待标记图像的区域标记信息;
按照上述区域标记信息,在上述待标记图像中标记目标四边形区域,其中,上述目标四边形区域中包括标准检测目标;
获取上述目标四边形区域各顶点的位置,按照上述标准检测目标与上述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,其中,上述场景透视关系表征上述待标记图像中各目标点的高度;
对上述待标记图像进行分析,确定上述待标记图像中人头的位置;
根据上述场景透视关系及上述人头的位置,建立上述人头的二维高斯模型;
按照上述人头的二维高斯模型,建立上述人头对应的人身的二维高斯模型,得到上述待标记图像中人体的二维混合高斯模型,其中,上述人体的二维混合高斯模型包括上述人头的二维高斯模型及上述人身的二维高斯模型。
可选的,上述处理器,用于执行上述存储器上所存放的程序时,还能实现上述任一图像中人体标记方法。
可选的,如图10所示,本申请实施例的电子设备还包括通信接口1002和通信总线1004,其中,处理器1001,通信接口1002,存储器1003通过通信总线1004完成相互间的通信。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本申请实施例还提供了一种计算机可读存储介质,上述计算机可读存储介质内存储有计算机程序,上述计算机程序被处理器执行时实现上述任一图像中人体标记方法。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备及存储介质的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
Claims (10)
1.一种图像中人体标记方法,其特征在于,所述方法包括:
获取待标记图像的目标四边形区域,其中,所述目标四边形区域中包括标准检测目标;
获取所述目标四边形区域各顶点的位置,按照所述标准检测目标与所述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,其中,所述场景透视关系表征所述待标记图像中各目标点的高度;
对所述待标记图像进行分析,确定所述待标记图像中人头的位置;
根据所述场景透视关系及所述人头的位置,建立所述人头的二维高斯模型;
按照所述人头的二维高斯模型,建立所述人头对应的人身的二维高斯模型,得到所述待标记图像中人体的二维混合高斯模型,其中,所述人体的二维混合高斯模型包括所述人头的二维高斯模型及所述人身的二维高斯模型;
遍历所述待标记图像,在图像中所有标记有人头坐标的位置叠加所述人体的二维混合高斯模型,以将场景中的所有人体区域标记出来;
所述标准检测目标的高度确定。
2.根据权利要求1所述的方法,其特征在于,所述获取待标记图像的目标四边形区域包括:
获取针对待标记图像的区域标记信息;
按照所述区域标记信息,在所述待标记图像中标记目标四边形区域。
3.根据权利要求1所述的方法,其特征在于,所述目标四边形区域与所述标准检测目标垂直。
4.根据权利要求3所述的方法,其特征在于,所述标准检测目标分别位于所述目标四边形区域平行边的中点,所述获取所述目标四边形区域各顶点的位置,按照所述标准检测目标与所述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,包括:
获取所述目标四边形区域各顶点在竖直方向上的高度,按照所述标准检测目标的实际高度及所述目标四边形区域各顶点的高度,确定所述目标四边形区域中各目标点的高度,得到场景透视关系。
5.根据权利要求1所述的方法,其特征在于,所述根据所述场景透视关系及所述人头的位置,建立所述人头的二维高斯模型,包括:
按照所述人头的位置,确定所述人头的中心坐标;
根据所述场景透视关系及所述人头的中心坐标,得到所述人头的直径;
根据所述人头的中心坐标及所述人头的直径,建立所述人头的二维高斯模型。
6.根据权利要求1所述的方法,其特征在于,所述按照所述人头的二维高斯模型,建立所述待标记图像中人身的二维高斯模型,得到所述待标记图像中人体的二维混合高斯模型,包括:
按照所述人头的二维高斯模型,确定所述人头对应的人身的中心坐标及所述人身的长度和宽度;
按照所述人身的中心坐标及所述人身的长度和宽度,建立所述人身的二维高斯模型,得到所述待标记图像中人体的二维混合高斯模型。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对所述待标记图像中各人体的二维混合高斯模型进行积分,得到所述待标记图像中人体的数量。
8.一种图像中人体标记装置,其特征在于,所述装置包括:
四边形区域获取模块,用于获取待标记图像的目标四边形区域,其中,所述目标四边形区域中包括标准检测目标;
透视关系确定模块,用于获取所述目标四边形区域各顶点的位置,按照所述标准检测目标与所述目标四边形区域各顶点的位置的对应关系,确定场景透视关系,其中,所述场景透视关系表征所述待标记图像中各目标点的高度;
人头位置确定模块,用于对所述待标记图像进行分析,确定所述待标记图像中人头的位置;
人头模型建立模块,用于根据所述场景透视关系及所述人头的位置,建立所述人头的二维高斯模型;
人身模型建立模块,用于按照所述人头的二维高斯模型,建立所述人头对应的人身的二维高斯模型,得到所述待标记图像中人体的二维混合高斯模型,其中,所述人体的二维混合高斯模型包括所述人头的二维高斯模型及所述人身的二维高斯模型,以在遍历所述待标记图像时,在图像中所有标记有人头坐标的位置叠加所述人体的二维混合高斯模型,以将场景中的所有人体区域标记出来;
所述标准检测目标的高度确定。
9.根据权利要求8所述的装置,其特征在于,所述目标四边形区域与所述标准检测目标垂直;所述标准检测目标分别位于所述目标四边形区域平行边的中点,所述透视关系确定模块,具体用于:
获取所述目标四边形区域各顶点在竖直方向上的高度,按照所述标准检测目标的实际高度及所述目标四边形区域各顶点的高度,确定所述目标四边形区域中各目标点的高度,得到场景透视关系。
10.根据权利要求8所述的装置,其特征在于,所述人头模型建立模块,包括:
人头坐标确定子模块,用于按照所述人头的位置,确定所述人头的中心坐标;
人头直径确定子模块,用于根据所述场景透视关系及所述人头的中心坐标,得到所述人头的直径;
人头高斯模型确定子模块,用于根据所述人头的中心坐标及所述人头的直径,建立所述人头的二维高斯模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910290451.6A CN111428546B (zh) | 2019-04-11 | 2019-04-11 | 图像中人体标记方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910290451.6A CN111428546B (zh) | 2019-04-11 | 2019-04-11 | 图像中人体标记方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111428546A CN111428546A (zh) | 2020-07-17 |
CN111428546B true CN111428546B (zh) | 2023-10-13 |
Family
ID=71546738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910290451.6A Active CN111428546B (zh) | 2019-04-11 | 2019-04-11 | 图像中人体标记方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111428546B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092890B (zh) * | 2022-01-20 | 2022-04-12 | 长沙海信智能系统研究院有限公司 | 区域内可容纳人数的确定方法、装置、设备及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930334A (zh) * | 2012-10-10 | 2013-02-13 | 北京凯森世纪科技发展有限公司 | 视频人体轮廓识别计数器 |
CN105913040A (zh) * | 2016-04-27 | 2016-08-31 | 重庆邮电大学 | 暗视觉条件下的双摄像头实时行人检测系统 |
WO2017206005A1 (zh) * | 2016-05-30 | 2017-12-07 | 中国石油大学(华东) | 一种基于光流检测和身体部分模型的多人姿态识别系统 |
CN108345837A (zh) * | 2018-01-17 | 2018-07-31 | 浙江大学 | 一种基于人体区域对齐化特征表达学习的行人再识别方法 |
CN108805021A (zh) * | 2018-04-27 | 2018-11-13 | 西安理工大学 | 基于特征算子的实时个体跌倒行为检测报警方法 |
CN109508583A (zh) * | 2017-09-15 | 2019-03-22 | 杭州海康威视数字技术股份有限公司 | 一种人群分布特征的获取方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8965898B2 (en) * | 1998-11-20 | 2015-02-24 | Intheplay, Inc. | Optimizations for live event, real-time, 3D object tracking |
EP2584494A3 (en) * | 2006-08-03 | 2015-02-11 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
US10452899B2 (en) * | 2016-08-31 | 2019-10-22 | Siemens Healthcare Gmbh | Unsupervised deep representation learning for fine-grained body part recognition |
-
2019
- 2019-04-11 CN CN201910290451.6A patent/CN111428546B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930334A (zh) * | 2012-10-10 | 2013-02-13 | 北京凯森世纪科技发展有限公司 | 视频人体轮廓识别计数器 |
CN105913040A (zh) * | 2016-04-27 | 2016-08-31 | 重庆邮电大学 | 暗视觉条件下的双摄像头实时行人检测系统 |
WO2017206005A1 (zh) * | 2016-05-30 | 2017-12-07 | 中国石油大学(华东) | 一种基于光流检测和身体部分模型的多人姿态识别系统 |
CN109508583A (zh) * | 2017-09-15 | 2019-03-22 | 杭州海康威视数字技术股份有限公司 | 一种人群分布特征的获取方法和装置 |
CN108345837A (zh) * | 2018-01-17 | 2018-07-31 | 浙江大学 | 一种基于人体区域对齐化特征表达学习的行人再识别方法 |
CN108805021A (zh) * | 2018-04-27 | 2018-11-13 | 西安理工大学 | 基于特征算子的实时个体跌倒行为检测报警方法 |
Non-Patent Citations (1)
Title |
---|
黄风华.多人体识别监控技术的研究.《电脑与信息技术》.2008,第16卷(第2期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111428546A (zh) | 2020-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10008005B2 (en) | Measurement system and method for measuring multi-dimensions | |
CN111127422B (zh) | 图像标注方法、装置、系统及主机 | |
CN102750697B (zh) | 一种参数标定方法及装置 | |
Kanhere et al. | A taxonomy and analysis of camera calibration methods for traffic monitoring applications | |
CN101697233B (zh) | 一种基于结构光的三维物体表面重建方法 | |
US11189022B2 (en) | Automatic detection, counting, and measurement of logs using a handheld device | |
CN111161349A (zh) | 物体姿态估计方法、装置与设备 | |
CN106022307B (zh) | 基于船只旋转矩形空间的遥感图像船只检测方法 | |
CN109141364A (zh) | 障碍物检测方法、系统及机器人 | |
KR20220025028A (ko) | 시각적 비콘 기반의 비콘 맵 구축 방법, 장치 | |
CN108932496A (zh) | 区域内目标物的数量统计方法及装置 | |
CN112669318A (zh) | 表面缺陷检测方法、装置、设备及存储介质 | |
CN106033621A (zh) | 一种三维建模的方法及装置 | |
CN113280764A (zh) | 基于多星协同技术的输变电工程扰动范围定量监测方法及系统 | |
CN108447092B (zh) | 视觉定位标识物的方法及装置 | |
CN113945937A (zh) | 精度检测方法、装置及存储介质 | |
CN111428546B (zh) | 图像中人体标记方法、装置、电子设备及存储介质 | |
CN115147499A (zh) | 标定参数确定方法、混合标定板、装置、设备和介质 | |
CN111179351A (zh) | 一种参数标定方法及其装置、处理设备 | |
CN109063774A (zh) | 图像追踪效果评价方法、装置、设备及可读存储介质 | |
CN112100167A (zh) | 一种生态保护红线数据的质检方法及装置 | |
CN111192324A (zh) | 线段交点位置的确定方法、装置及可读存储介质 | |
CN107480710B (zh) | 特征点匹配结果处理方法和装置 | |
CN111652168B (zh) | 基于人工智能的群体检测方法、装置、设备及存储介质 | |
Chen et al. | A Voronoi-Diagram-based method for centerline extraction in 3D industrial line-laser reconstruction using a graph-centrality-based pruning algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |