CN112036360A - 一种骑行人头盔属性识别方法 - Google Patents
一种骑行人头盔属性识别方法 Download PDFInfo
- Publication number
- CN112036360A CN112036360A CN202010947547.8A CN202010947547A CN112036360A CN 112036360 A CN112036360 A CN 112036360A CN 202010947547 A CN202010947547 A CN 202010947547A CN 112036360 A CN112036360 A CN 112036360A
- Authority
- CN
- China
- Prior art keywords
- attribute
- helmet
- network
- layer
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 239000013598 vector Substances 0.000 claims abstract description 42
- 230000011731 head segmentation Effects 0.000 claims abstract description 16
- 230000001351 cycling effect Effects 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种骑行人头盔属性识别方法,属于图像处理技术领域。该方法包括以下步骤:S1、构建行人属性网络,行人属性网络包括骨干网络和两个子任务网络,所述子任务网络包括全局网络和头部分割网络;S2、将行人图片输入行人属性网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量;S3、合并交通方式属性和头盔属性,得到行人属性。通过本发明方法能够高效准确地识别出行人的交通方式和戴头盔的情况。
Description
技术领域
本发明属于图像处理技术领域,具体地指一种骑行人头盔属性识别方法。
背景技术
为了提升摩托车骑乘人员和电动自行车骑乘人员的安全防护水平,需要对摩托车骑乘人员和电动自行车骑乘人员佩戴头盔情况进行监管。现有的监管方法一般为人工监管,既消耗人力,监管效率也比较低。
发明内容
为解决现有技术中人工监管骑乘人员佩戴头盔的方式既消耗人力,效率又低等问题,本发明提供一种骑行人头盔属性识别方法。
本发明采用的技术方案为:一种骑行人头盔属性识别方法,包括以下步骤:
S1、构建行人属性网络,所述行人属性网络包括骨干网络和两个子任务网络,所述子任务网络包括全局网络和头部分割网络;
S2、将行人图片输入行人属性网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量;
S3、合并交通方式属性概率向量中最大值对应的交通方式属性和头盔属性概率向量中最大值对应的头盔属性,得到行人属性。
所述交通方式属性包括自行车、摩托车、电动自行车和步行;所述头盔属性包括戴头盔和未戴头盔;所述行人属性包括骑自行车戴头盔、骑摩托车戴头盔、骑电动自行车戴头盔、步行戴头盔、骑自行车未戴头盔、骑摩托车未戴头盔、骑电动车自行车未戴头盔和步行未戴头盔。
所述骨干网络采用ResNet;全局网络连接ResNet的conv5_x层;头部分割网络连接ResNet的conv3_x层。
所述全局网络包括依次连接的池化层、全连接层和softmax层。
所述头部分割网络包括依次连接的3×3卷积层、BN层、relu层、1×1卷积层、池化层、全连接层和softmax层。
所述softmax层按照公式P=softmax(f)计算属性的概率向量;
其中,P为属性的概率向量,P=(p1,p2,...pc)T,e为自然指数;f=Ac×n·x,Ac×n为c行n列矩阵,c为属性分类的类别数,特征x=(x1,x2,...,xn)T为n维列向量,f=(f1,f2,...,fc)T。
所述行人属性网络的总损失函数表示为
lossall=loss1+loss2+lossseg,
其中,loss1为交通方式交叉熵损失,loss2为戴头盔交叉熵损失,lossseg为头部分割网络的损失。
所述交通方式交叉熵损失和戴头盔交叉熵损失由公式
计算表示,其中N代表训练集batch的大小,c属性分类的类别数,yic为标注的one-hot向量,pic为输出特征经过降维softmax计算得到的预测概率向量。
所述头部分割网络的损失函数为
所述部件包括头和非头两个部件。
本发明的有益效果有:通过本发明方法能够高效准确地识别出行人的交通方式和戴头盔的情况;行人属性网络包括全局网络和头部分割网络两个子任务网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量,能够约束不同属性相互牵制和扰动。
附图说明
图1为本发明整体流程示意图。
图2为本发明一实施例中行人属性网络结构图。
图3为本发明一实施例中全局网络结构图。
图4为本发明一实施例中头部分割网络结构图。
图5为行人图片。
图6为图5框选出头部位置的示意图。
图7为头部区域像素值为1,其余位置像素值为0的单通道图片。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细说明。为了突出本发明的重点,本文对一些常规的设备、装置、部件和操作进行了省略,或仅作简单描述。
需要说明的是,术语“中心”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
参照图1,一种骑行人头盔属性识别方法,包括以下步骤:
S1、构建行人属性网络。
参照图2,所述行人属性网络包括骨干网络和两个子任务网络,所述子任务网络包括全局网络和头部分割网络。全局网络用于提取全局信息,预测行人的交通方式属性(自行车、摩托车、电动自行车或步行);头部分割网络用于提取头部信息,预测行人的头盔属性(戴头盔或未戴头盔)。分别设置两个子任务网络能够约束不同属性相互牵制和扰动。仅提取头部信息预测是否戴头盔,能够避免信息的冗余,使全局信息更能体现交通方式属性。
参照图2,所述骨干网络采用ResNet,骨干网络ResNet中conv5_1层的步长由2修改为1。采用ResNet网络,可以使行人属性网络对属性预测更加准确。全局网络连接ResNet的conv5_x层,即ResNet的conv5_x层的输出作为全局网络的输入;头部分割网络连接ResNet的conv3_x层,即ResNet的conv3_x层的输出作为头部分割网络的输入。全局网络和头部分割网络共享ResNet的conv1层,maxpool层,conv2_x层和conv3_x层,如此可以降低计算量且能精确定位头部信息。
参照图3,全局网络包括依次连接的池化层、全连接层和softmax层。ResNet的conv5_x层的输出结果(2048×24×8的张量)依次经过池化层、降维处理、全连接层和softmax层后,输出一个4行1列的概率向量,即交通方式属性概率向量,用于计算交通方式属性的交叉熵损失。
参照图4,头部分割网络包括依次连接的3×3卷积层(head-conv1层)、BN层、relu层、1×1卷积层(head-conv2层)、池化层、全连接层和softmax层。ResNet的conv3_x的输出结果依次经过head-conv1层、BN层、relu层和head-conv2层后,输出2×48×16的张量,即2个48×16的二维向量,每个像素点有一个长度为2(代表头部位置和非头部位置)的一维向量,这个长度为2的一维向量对应该像素点部件分割的结果,用于计算头部分割网络损失函数并约束头部位置和非头部位置。该2×48×16的张量经过切片提取后,依次经过池化层、改变维度处理、降维处理、全连接层和softmax层,最后输出一个2行1列的概率向量,即头盔属性概率向量,用于计算头盔属性的交叉熵损失。
其中,softmax层将特征转化为概率向量的具体步骤为:
设属性分类的类别数为c,特征x=(x1,x2,...,xn)T为n维列向量,计算
f=Ac×n·x,
P=softmax(f),
交通方式属性的类别数为c=4,交通方式特征的维度为n=2048。头盔属性的类别数为c=2,头部特征的维度为n=256。
训练数据包括20000张行人图片,每张图片均标注出属性信息和头部位置信息。
其中,属性信息标注的具体方法为:以one-hot向量(一个向量中只有一个是1,其余为0)形式标注。属性1为交通方式属性,分为自行车、摩托车、电动自行车和步行四类;属性2为头盔属性,分为戴头盔和未带头盔两类。以一张行人骑摩托车戴头盔的图片为例,该图片的交通方式属性信息标注为[0,1,0,0],头盔属性信息标注为[1,0]。
参照图5至图7,头部位置信息标注的具体方法为:每张图片通过现有的头部检测器获取头部检测框的位置信息(x,y,w,h),即检测框的左上角坐标为(x,y),宽高为(w,h)。绘制一个头部区域像素值为1,其余位置像素值为0的单通道图片,用以约束头部位置。参照图6和图7,框内为像素值1,其余为像素值0。通过部件检测信息约束定位头部位置,使得算法准确性高和鲁棒性强。
行人属性网络的总损失函数表示为
lossall=loss1+loss2+lossseg,
其中,loss1为交通方式交叉熵损失,loss2为戴头盔交叉熵损失,loss1和loss2均由公式
计算得出,其中N代表训练集batch的大小,本文中设定N=64;c代表类别的数量,交通方式属性分类损失中c=4,头盔属性分类损失中c=2;yic为实际标注one-hot向量,pic为输出特征经过降维softmax计算得到的预测概率向量;
lossseg为头部分割网络的损失,
因为函数未有解析解,即无全局最优解,所以采用逐步迭代的办法获得局部最优解。训练过程为:依次读取训练数据集的数据对网络进行前传得到预测值,计算损失函数,反向传播计算当前梯度,根据计算梯度和优化方法的步长更新网络参数,重复以上操作继续训练,直至函数收敛稳定。
S2、将行人图片输入行人属性网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量。
S3、合并交通方式属性概率向量中最大值对应的交通方式属性和头盔属性概率向量中最大值对应的头盔属性,得到行人属性。所述交通方式属性包括自行车、摩托车、电动自行车和步行;所述头盔属性包括戴头盔和未戴头盔;所述行人属性包括骑自行车戴头盔、骑摩托车戴头盔、骑电动自行车戴头盔、步行戴头盔、骑自行车未戴头盔、骑摩托车未戴头盔、骑电动车自行车未戴头盔和步行未戴头盔。
以图5(来自公开数据集market1501文件夹bounding_box_train,名称为0111_c5s1_019276_02)为例,将图5输入行人属性网络,通过全局网络得到交通方式属性概率向量P1,通过头部分割网络得到头盔属性概率向量P2。P1=(0.09,0.85,0.05,0.01)T,代表交通方式为自行车的概率为0.09,交通方式为摩托车的概率为0.85,交通方式为电动自行车的概率为0.05,步行的概率为0.01,从四个值中取最大值对应的交通方式属性,即该行人为骑摩托车。P2=(0.123,0.877)T,代表行人戴头盔的概率为0.123,未戴头盔的概率为0.877,从两个值中取最大值对应的头盔属性,即行人未戴头盔。综合P1和P2可得,图5中行人属性识别为骑摩托车未戴头盔的人。
需要理解到的是:虽然本发明已通过具体实施方式对其进行了较为详细的描述,但这些描述并非对本发明专利范围的限制,在此基础上所做出的未超出权利要求保护范围的任何形式和细节的变动,均属于本发明所保护的范围。
Claims (10)
1.一种骑行人头盔属性识别方法,其特征在于,包括以下步骤:
S1、构建行人属性网络,所述行人属性网络包括骨干网络和两个子任务网络,所述子任务网络包括全局网络和头部分割网络;
S2、将行人图片输入行人属性网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量;
S3、合并交通方式属性概率向量中最大值对应的交通方式属性和头盔属性概率向量中最大值对应的头盔属性,得到行人属性。
2.根据权利要求1所述的骑行人头盔属性识别方法,其特征在于,所述交通方式属性包括自行车、摩托车、电动自行车和步行;所述头盔属性包括戴头盔和未戴头盔;所述行人属性包括骑自行车戴头盔、骑摩托车戴头盔、骑电动自行车戴头盔、步行戴头盔、骑自行车未戴头盔、骑摩托车未戴头盔、骑电动车自行车未戴头盔和步行未戴头盔。
3.根据权利要求1所述的骑行人头盔属性识别方法,其特征在于,所述骨干网络采用ResNet;全局网络连接ResNet的conv5_x层;头部分割网络连接ResNet的conv3_x层。
4.根据权利要求1所述的骑行人头盔属性识别方法,其特征在于,所述全局网络包括依次连接的池化层、全连接层和softmax层。
5.根据权利要求1所述的骑行人头盔属性识别方法,其特征在于,所述头部分割网络包括依次连接的3×3卷积层、BN层、relu层、1×1卷积层、池化层、全连接层和softmax层。
7.根据权利要求1所述的骑行人头盔属性识别方法,其特征在于,所述行人属性网络的总损失函数表示为
lossall=loss1+loss2+lossseg,
其中,loss1为交通方式交叉熵损失,loss2为戴头盔交叉熵损失,lossseg为头部分割网络的损失。
10.根据权利要求9所述的骑行人头盔属性识别方法,其特征在于,所述部件包括头和非头两个部件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010947547.8A CN112036360B (zh) | 2020-09-10 | 2020-09-10 | 一种骑行人头盔属性识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010947547.8A CN112036360B (zh) | 2020-09-10 | 2020-09-10 | 一种骑行人头盔属性识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112036360A true CN112036360A (zh) | 2020-12-04 |
CN112036360B CN112036360B (zh) | 2023-11-28 |
Family
ID=73585660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010947547.8A Active CN112036360B (zh) | 2020-09-10 | 2020-09-10 | 一种骑行人头盔属性识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112036360B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211427A (ja) * | 2009-03-10 | 2010-09-24 | Omron Corp | 安全運転監視装置 |
CN105760847A (zh) * | 2016-03-01 | 2016-07-13 | 江苏大学 | 一种对摩托车驾驶员头盔佩戴情况的视觉检测方法 |
CN110070033A (zh) * | 2019-04-19 | 2019-07-30 | 山东大学 | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 |
CN110222672A (zh) * | 2019-06-19 | 2019-09-10 | 广东工业大学 | 施工现场的安全帽佩戴检测方法、装置、设备及存储介质 |
CN110991315A (zh) * | 2019-11-28 | 2020-04-10 | 江苏电力信息技术有限公司 | 一种基于深度学习的安全帽佩戴状态实时检测方法 |
CN111310653A (zh) * | 2020-02-13 | 2020-06-19 | 上海眼控科技股份有限公司 | 佩戴头盔的检测方法、装置、计算机设备和存储介质 |
CN111598066A (zh) * | 2020-07-24 | 2020-08-28 | 之江实验室 | 一种基于级联预测的安全帽佩戴识别方法 |
CN111598040A (zh) * | 2020-05-25 | 2020-08-28 | 中建三局第二建设工程有限责任公司 | 一种建筑工人身份识别及安全帽佩戴检测方法及系统 |
-
2020
- 2020-09-10 CN CN202010947547.8A patent/CN112036360B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211427A (ja) * | 2009-03-10 | 2010-09-24 | Omron Corp | 安全運転監視装置 |
CN105760847A (zh) * | 2016-03-01 | 2016-07-13 | 江苏大学 | 一种对摩托车驾驶员头盔佩戴情况的视觉检测方法 |
CN110070033A (zh) * | 2019-04-19 | 2019-07-30 | 山东大学 | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 |
CN110222672A (zh) * | 2019-06-19 | 2019-09-10 | 广东工业大学 | 施工现场的安全帽佩戴检测方法、装置、设备及存储介质 |
CN110991315A (zh) * | 2019-11-28 | 2020-04-10 | 江苏电力信息技术有限公司 | 一种基于深度学习的安全帽佩戴状态实时检测方法 |
CN111310653A (zh) * | 2020-02-13 | 2020-06-19 | 上海眼控科技股份有限公司 | 佩戴头盔的检测方法、装置、计算机设备和存储介质 |
CN111598040A (zh) * | 2020-05-25 | 2020-08-28 | 中建三局第二建设工程有限责任公司 | 一种建筑工人身份识别及安全帽佩戴检测方法及系统 |
CN111598066A (zh) * | 2020-07-24 | 2020-08-28 | 之江实验室 | 一种基于级联预测的安全帽佩戴识别方法 |
Non-Patent Citations (4)
Title |
---|
APHINYA CHAIRAT 等: "Low Cost,High Performance Automatic Motorcycle Helmet Violation Detection", 《2020 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION》, pages 3549 - 3557 * |
HANHE LIN 等: "Helmet Use Detection of Tracked Motorcycles Using CNN-Based Multi-Task Learning", 《IEEE ACCESS》, vol. 8, pages 162073 - 162084, XP011808543, DOI: 10.1109/ACCESS.2020.3021357 * |
ZHAO QIU 等: "Elecric Bicycle Violation Automatic Detetion in Unconstrained Scenarios", 《PARALLEL ARCHITECTURES,ALGORITHMS AND PROGRAMMING》, pages 168 - 174 * |
李晓飞 等: "基于候选区域选择及深度网络模型的骑车人识别", 《清华大学学报(自然科学版)》, vol. 57, no. 5, pages 491 - 496 * |
Also Published As
Publication number | Publication date |
---|---|
CN112036360B (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949572B (zh) | 基于Slim-YOLOv3的口罩佩戴情况检测方法 | |
Xia et al. | Scpnet: Semantic scene completion on point cloud | |
CN106649490A (zh) | 一种基于深度特征的图像检索方法及装置 | |
CN102395984A (zh) | 用于视频内容分析的关键帧提取 | |
CN110188596A (zh) | 基于深度学习的监控视频行人实时检测、属性识别与跟踪方法及系统 | |
CN113762201A (zh) | 基于yolov4的口罩检测方法 | |
CN112766123B (zh) | 一种基于纵横交叉注意力网络的人群计数方法及系统 | |
CN112488034A (zh) | 基于轻量化人脸口罩检测模型的视频处理方法 | |
CN112966810B (zh) | 基于改进YOLOv5s的头盔检测方法、装置、电子设备和存储介质 | |
CN112597324A (zh) | 一种基于相关滤波的图像哈希索引构建方法、系统及设备 | |
Du et al. | Energy-based domain generalization for face anti-spoofing | |
CN109800756A (zh) | 一种用于中文历史文献密集文本的文字检测识别方法 | |
CN111507275A (zh) | 一种基于深度学习的视频数据时序信息提取方法及装置 | |
JP2012079187A (ja) | 特徴ベクトル生成装置、特徴ベクトル生成方法及びプログラム | |
Wu et al. | A method for identifying grape stems using keypoints | |
Wu et al. | Inter-Attribute awareness for pedestrian attribute recognition | |
CN112036360A (zh) | 一种骑行人头盔属性识别方法 | |
CN116543419B (zh) | 基于嵌入式平台的酒店卫勤人员穿戴检测方法及系统 | |
CN113313185B (zh) | 一种基于自适应空谱特征提取的高光谱图像分类方法 | |
Zhu et al. | Horizontal-to-vertical video conversion | |
CN103942570A (zh) | 图像分类方法及系统 | |
Simfukwe et al. | Fusion of measures for image segmentation evaluation | |
An et al. | A Deep Convolutional Neural Network for Pneumonia Detection in X-ray Images with Attention Ensemble | |
CN113298017A (zh) | 一种针对视频行为检测的行为提议生成方法 | |
Bai et al. | Two-Steam fully connected graph convolutional network for skeleton-based action recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |