CN112036360B - 一种骑行人头盔属性识别方法 - Google Patents
一种骑行人头盔属性识别方法 Download PDFInfo
- Publication number
- CN112036360B CN112036360B CN202010947547.8A CN202010947547A CN112036360B CN 112036360 B CN112036360 B CN 112036360B CN 202010947547 A CN202010947547 A CN 202010947547A CN 112036360 B CN112036360 B CN 112036360B
- Authority
- CN
- China
- Prior art keywords
- helmet
- attribute
- layer
- network
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 239000013598 vector Substances 0.000 claims abstract description 48
- 230000011731 head segmentation Effects 0.000 claims abstract description 18
- 238000011176 pooling Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000000452 restraining effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种骑行人头盔属性识别方法,属于图像处理技术领域。该方法包括以下步骤:S1、构建行人属性网络,行人属性网络包括骨干网络和两个子任务网络,所述子任务网络包括全局网络和头部分割网络;S2、将行人图片输入行人属性网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量;S3、合并交通方式属性和头盔属性,得到行人属性。通过本发明方法能够高效准确地识别出行人的交通方式和戴头盔的情况。
Description
技术领域
本发明属于图像处理技术领域,具体地指一种骑行人头盔属性识别方法。
背景技术
为了提升摩托车骑乘人员和电动自行车骑乘人员的安全防护水平,需要对摩托车骑乘人员和电动自行车骑乘人员佩戴头盔情况进行监管。现有的监管方法一般为人工监管,既消耗人力,监管效率也比较低。
发明内容
为解决现有技术中人工监管骑乘人员佩戴头盔的方式既消耗人力,效率又低等问题,本发明提供一种骑行人头盔属性识别方法。
本发明采用的技术方案为:一种骑行人头盔属性识别方法,包括以下步骤:
S1、构建行人属性网络,所述行人属性网络包括骨干网络和两个子任务网络,所述子任务网络包括全局网络和头部分割网络;
S2、将行人图片输入行人属性网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量;
S3、合并交通方式属性概率向量中最大值对应的交通方式属性和头盔属性概率向量中最大值对应的头盔属性,得到行人属性。
所述交通方式属性包括自行车、摩托车、电动自行车和步行;所述头盔属性包括戴头盔和未戴头盔;所述行人属性包括骑自行车戴头盔、骑摩托车戴头盔、骑电动自行车戴头盔、步行戴头盔、骑自行车未戴头盔、骑摩托车未戴头盔、骑电动车自行车未戴头盔和步行未戴头盔。
所述骨干网络采用ResNet;全局网络连接ResNet的conv5_x层;头部分割网络连接ResNet的conv3_x层。
所述全局网络包括依次连接的池化层、全连接层和softmax层。
所述头部分割网络包括依次连接的3×3卷积层、BN层、relu层、1×1卷积层、池化层、全连接层和softmax层。
所述softmax层按照公式计算属性的概率向量;
其中,P为属性的概率向量,,/>,e为自然指数;,/>为c行n列矩阵,c为属性分类的类别数,特征/>为n维列向量,/>。
所述行人属性网络的总损失函数表示为
,
其中,为交通方式交叉熵损失,/>为戴头盔交叉熵损失,/>为头部分割网络的损失。
所述交通方式交叉熵损失和戴头盔交叉熵损失由公式
计算表示,其中N代表训练集batch的大小,c属性分类的类别数,为标注的one-hot向量,/>为输出特征经过降维softmax计算得到的预测概率向量。
所述头部分割网络的损失函数为
,
其中,K为分割的部件的个数,为第k个部件内平均的交叉熵损失。
所述部件包括头和非头两个部件。
本发明的有益效果有:通过本发明方法能够高效准确地识别出行人的交通方式和戴头盔的情况;行人属性网络包括全局网络和头部分割网络两个子任务网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量,能够约束不同属性相互牵制和扰动。
附图说明
图1为本发明整体流程示意图。
图2为本发明一实施例中行人属性网络结构图。
图3为本发明一实施例中全局网络结构图。
图4为本发明一实施例中头部分割网络结构图。
图5为行人图片。
图6为图5框选出头部位置的示意图。
图7为头部区域像素值为1,其余位置像素值为0的单通道图片。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细说明。为了突出本发明的重点,本文对一些常规的设备、装置、部件和操作进行了省略,或仅作简单描述。
需要说明的是,术语“中心”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
参照图1,一种骑行人头盔属性识别方法,包括以下步骤:
S1、构建行人属性网络。
参照图2,所述行人属性网络包括骨干网络和两个子任务网络,所述子任务网络包括全局网络和头部分割网络。全局网络用于提取全局信息,预测行人的交通方式属性(自行车、摩托车、电动自行车或步行);头部分割网络用于提取头部信息,预测行人的头盔属性(戴头盔或未戴头盔)。分别设置两个子任务网络能够约束不同属性相互牵制和扰动。仅提取头部信息预测是否戴头盔,能够避免信息的冗余,使全局信息更能体现交通方式属性。
参照图2,所述骨干网络采用ResNet,骨干网络ResNet中conv5_1层的步长由2修改为1。采用ResNet网络,可以使行人属性网络对属性预测更加准确。全局网络连接ResNet的conv5_x层,即ResNet的conv5_x层的输出作为全局网络的输入;头部分割网络连接ResNet的conv3_x层,即ResNet的conv3_x层的输出作为头部分割网络的输入。全局网络和头部分割网络共享ResNet的conv1层,maxpool层,conv2_x层和conv3_x层,如此可以降低计算量且能精确定位头部信息。
参照图3,全局网络包括依次连接的池化层、全连接层和softmax层。ResNet的conv5_x层的输出结果(2048×24×8的张量)依次经过池化层、降维处理、全连接层和softmax层后,输出一个4行1列的概率向量,即交通方式属性概率向量,用于计算交通方式属性的交叉熵损失。
参照图4,头部分割网络包括依次连接的3×3卷积层(head-conv1层)、BN层、relu层、1×1卷积层(head-conv2层)、池化层、全连接层和softmax层。ResNet的conv3_x的输出结果依次经过head-conv1层、BN层、relu层和head-conv2层后,输出2×48×16的张量,即2个48×16的二维向量,每个像素点有一个长度为2(代表头部位置和非头部位置)的一维向量,这个长度为2的一维向量对应该像素点部件分割的结果,用于计算头部分割网络损失函数并约束头部位置和非头部位置。该2×48×16的张量经过切片提取后,依次经过池化层、降维处理、全连接层和softmax层,最后输出一个2行1列的概率向量,即头盔属性概率向量,用于计算头盔属性的交叉熵损失。
其中,softmax层将特征转化为概率向量的具体步骤为:
设属性分类的类别数为c,特征为n维列向量,计算
,
,
其中,为c行n列矩阵,/>,P为属性概率向量,/>,/>,e为自然指数。
交通方式属性的类别数为c=4,交通方式特征的维度为n=2048。头盔属性的类别数为c=2,头部特征的维度为n=256。
训练数据包括20000张行人图片,每张图片均标注出属性信息和头部位置信息。
其中,属性信息标注的具体方法为:以one-hot向量(一个向量中只有一个是1,其余为0)形式标注。属性1为交通方式属性,分为自行车、摩托车、电动自行车和步行四类;属性2为头盔属性,分为戴头盔和未带头盔两类。以一张行人骑摩托车戴头盔的图片为例,该图片的交通方式属性信息标注为[0,1,0,0],头盔属性信息标注为[1,0]。
参照图5至图7,头部位置信息标注的具体方法为:每张图片通过现有的头部检测器获取头部检测框的位置信息(x,y,w,h),即检测框的左上角坐标为(x,y),宽高为(w,h)。绘制一个头部区域像素值为1,其余位置像素值为0的单通道图片,用以约束头部位置。参照图6和图7,框内为像素值1,其余为像素值0。通过部件检测信息约束定位头部位置,使得算法准确性高和鲁棒性强。
行人属性网络的总损失函数表示为
,
其中,为交通方式交叉熵损失,/>为戴头盔交叉熵损失,/>和/>均由公式
计算得出, 其中N代表训练集batch的大小,本文中设定N=64;c代表类别的数量,交通方式属性分类损失中c=4,头盔属性分类损失中c=2;为实际标注one-hot向量,/>为输出特征经过降维softmax计算得到的预测概率向量;
为头部分割网络的损失,
,
其中,K为分割的部件个数,本文中K=2,代表代表头和非头两个部件;为第k个部件内平均的交叉熵损失。
因为函数未有解析解,即无全局最优解,所以采用逐步迭代的办法获得局部最优解。训练过程为:依次读取训练数据集的数据对网络进行前传得到预测值,计算损失函数,反向传播计算当前梯度,根据计算梯度和优化方法的步长更新网络参数,重复以上操作继续训练,直至函数收敛稳定。
S2、将行人图片输入行人属性网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量。
S3、合并交通方式属性概率向量中最大值对应的交通方式属性和头盔属性概率向量中最大值对应的头盔属性,得到行人属性。所述交通方式属性包括自行车、摩托车、电动自行车和步行;所述头盔属性包括戴头盔和未戴头盔;所述行人属性包括骑自行车戴头盔、骑摩托车戴头盔、骑电动自行车戴头盔、步行戴头盔、骑自行车未戴头盔、骑摩托车未戴头盔、骑电动车自行车未戴头盔和步行未戴头盔。
以图5(来自公开数据集market1501文件夹bounding_box_train,名称为0111_c5s1_019276_02)为例,将图5输入行人属性网络,通过全局网络得到交通方式属性概率向量P1,通过头部分割网络得到头盔属性概率向量P2。,代表交通方式为自行车的概率为0.09,交通方式为摩托车的概率为0.85,交通方式为电动自行车的概率为0.05,步行的概率为0.01,从四个值中取最大值对应的交通方式属性,即该行人为骑摩托车。/>,代表行人戴头盔的概率为0.123,未戴头盔的概率为0.877,从两个值中取最大值对应的头盔属性,即行人未戴头盔。综合P1和P2可得,图5中行人属性识别为骑摩托车未戴头盔的人。
需要理解到的是:虽然本发明已通过具体实施方式对其进行了较为详细的描述,但这些描述并非对本发明专利范围的限制,在此基础上所做出的未超出权利要求保护范围的任何形式和细节的变动,均属于本发明所保护的范围。
Claims (7)
1.一种骑行人头盔属性识别方法,其特征在于,包括以下步骤:
S1、构建行人属性网络,所述行人属性网络包括骨干网络和两个子任务网络,所述子任务网络包括全局网络和头部分割网络;
S2、将行人图片输入行人属性网络,通过全局网络得到交通方式属性概率向量,通过头部分割网络得到头盔属性概率向量;
S3、合并交通方式属性概率向量中最大值对应的交通方式属性和头盔属性概率向量中最大值对应的头盔属性,得到行人属性;
所述骨干网络采用ResNet;全局网络连接ResNet的conv5_x层;头部分割网络连接ResNet的conv3_x层;
全局网络包括依次连接的池化层、全连接层和softmax层;ResNet的conv5_x层的输出结果依次经过池化层、降维处理、全连接层和softmax层后,输出一个4行1列的概率向量,即交通方式属性概率向量,用于计算交通方式属性的交叉熵损失;
头部分割网络包括依次连接的3×3卷积层、BN层、relu层、1×1卷积层、池化层、全连接层和softmax层;ResNet的conv3_x的输出结果依次经过3×3卷积层、BN层、relu层和1×1卷积层后,输出2×48×16的张量,即2个48×16的二维向量,每个像素点有一个长度为2的一维向量,这个长度为2的一维向量对应该像素点部件分割的结果,用于计算头部分割网络损失函数并约束头部位置和非头部位置;该2×48×16的张量经过切片提取后,依次经过池化层、降维处理、全连接层和softmax层,最后输出一个2行1列的概率向量,即头盔属性概率向量,用于计算头盔属性的交叉熵损失。
2.根据权利要求1所述的骑行人头盔属性识别方法,其特征在于,所述交通方式属性包括自行车、摩托车、电动自行车和步行;所述头盔属性包括戴头盔和未戴头盔;所述行人属性包括骑自行车戴头盔、骑摩托车戴头盔、骑电动自行车戴头盔、步行戴头盔、骑自行车未戴头盔、骑摩托车未戴头盔、骑电动车自行车未戴头盔和步行未戴头盔。
3.根据权利要求1所述的骑行人头盔属性识别方法,其特征在于,所述softmax层按照公式计算属性的概率向量;
其中,P为属性的概率向量,,/>,e为自然指数;/>,为c行n列矩阵,c为属性分类的类别数,特征/>为n维列向量,。
4.根据权利要求1所述的骑行人头盔属性识别方法,其特征在于,所述行人属性网络的总损失函数表示为
,
其中,为交通方式交叉熵损失,/>为戴头盔交叉熵损失,/>为头部分割网络的损失。
5.根据权利要求4所述的骑行人头盔属性识别方法,其特征在于,所述交通方式交叉熵损失和戴头盔交叉熵损失由公式
计算表示,其中N代表训练集batch的大小,c属性分类的类别数,为标注的one-hot向量,/>为输出特征经过降维softmax计算得到的预测概率向量。
6.根据权利要求4所述的骑行人头盔属性识别方法,其特征在于,所述头部分割网络的损失函数为
,
其中,K为分割的部件的个数,为第k个部件内平均的交叉熵损失。
7.根据权利要求6所述的骑行人头盔属性识别方法,其特征在于,所述部件包括头和非头两个部件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010947547.8A CN112036360B (zh) | 2020-09-10 | 2020-09-10 | 一种骑行人头盔属性识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010947547.8A CN112036360B (zh) | 2020-09-10 | 2020-09-10 | 一种骑行人头盔属性识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112036360A CN112036360A (zh) | 2020-12-04 |
CN112036360B true CN112036360B (zh) | 2023-11-28 |
Family
ID=73585660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010947547.8A Active CN112036360B (zh) | 2020-09-10 | 2020-09-10 | 一种骑行人头盔属性识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112036360B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211427A (ja) * | 2009-03-10 | 2010-09-24 | Omron Corp | 安全運転監視装置 |
CN105760847A (zh) * | 2016-03-01 | 2016-07-13 | 江苏大学 | 一种对摩托车驾驶员头盔佩戴情况的视觉检测方法 |
CN110070033A (zh) * | 2019-04-19 | 2019-07-30 | 山东大学 | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 |
CN110222672A (zh) * | 2019-06-19 | 2019-09-10 | 广东工业大学 | 施工现场的安全帽佩戴检测方法、装置、设备及存储介质 |
CN110991315A (zh) * | 2019-11-28 | 2020-04-10 | 江苏电力信息技术有限公司 | 一种基于深度学习的安全帽佩戴状态实时检测方法 |
CN111310653A (zh) * | 2020-02-13 | 2020-06-19 | 上海眼控科技股份有限公司 | 佩戴头盔的检测方法、装置、计算机设备和存储介质 |
CN111598066A (zh) * | 2020-07-24 | 2020-08-28 | 之江实验室 | 一种基于级联预测的安全帽佩戴识别方法 |
CN111598040A (zh) * | 2020-05-25 | 2020-08-28 | 中建三局第二建设工程有限责任公司 | 一种建筑工人身份识别及安全帽佩戴检测方法及系统 |
-
2020
- 2020-09-10 CN CN202010947547.8A patent/CN112036360B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010211427A (ja) * | 2009-03-10 | 2010-09-24 | Omron Corp | 安全運転監視装置 |
CN105760847A (zh) * | 2016-03-01 | 2016-07-13 | 江苏大学 | 一种对摩托车驾驶员头盔佩戴情况的视觉检测方法 |
CN110070033A (zh) * | 2019-04-19 | 2019-07-30 | 山东大学 | 一种电力领域危险工作区域内安全帽佩戴状态检测方法 |
CN110222672A (zh) * | 2019-06-19 | 2019-09-10 | 广东工业大学 | 施工现场的安全帽佩戴检测方法、装置、设备及存储介质 |
CN110991315A (zh) * | 2019-11-28 | 2020-04-10 | 江苏电力信息技术有限公司 | 一种基于深度学习的安全帽佩戴状态实时检测方法 |
CN111310653A (zh) * | 2020-02-13 | 2020-06-19 | 上海眼控科技股份有限公司 | 佩戴头盔的检测方法、装置、计算机设备和存储介质 |
CN111598040A (zh) * | 2020-05-25 | 2020-08-28 | 中建三局第二建设工程有限责任公司 | 一种建筑工人身份识别及安全帽佩戴检测方法及系统 |
CN111598066A (zh) * | 2020-07-24 | 2020-08-28 | 之江实验室 | 一种基于级联预测的安全帽佩戴识别方法 |
Non-Patent Citations (3)
Title |
---|
Elecric Bicycle Violation Automatic Detetion in Unconstrained Scenarios;Zhao Qiu 等;《Parallel Architectures,Algorithms and Programming》;168-174 * |
Low Cost,High Performance Automatic Motorcycle Helmet Violation Detection;Aphinya Chairat 等;《2020 IEEE Winter Conference on Applications of Computer Vision》;3549-3557页 * |
基于候选区域选择及深度网络模型的骑车人识别;李晓飞 等;《清华大学学报(自然科学版)》;第57卷(第5期);491-496 * |
Also Published As
Publication number | Publication date |
---|---|
CN112036360A (zh) | 2020-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503630B (zh) | 一种基于三维深度学习模型的脑出血分类、定位与预测方法 | |
Li et al. | DMNet: A network architecture using dilated convolution and multiscale mechanisms for spatiotemporal fusion of remote sensing images | |
CN110263666B (zh) | 一种基于非对称多流的动作检测方法 | |
CN114022793B (zh) | 一种基于孪生网络的光学遥感图像变化检测方法 | |
CN112052876B (zh) | 一种基于改进ra-cnn的细粒度图像检测方法与系统 | |
CN107977610B (zh) | 一种基于海量视频处理的人脸追踪方法 | |
CN113762201A (zh) | 基于yolov4的口罩检测方法 | |
CN116579616B (zh) | 一种基于深度学习的风险识别方法 | |
CN115311605B (zh) | 基于近邻一致性和对比学习的半监督视频分类方法及系统 | |
CN111507275A (zh) | 一种基于深度学习的视频数据时序信息提取方法及装置 | |
CN109800756A (zh) | 一种用于中文历史文献密集文本的文字检测识别方法 | |
CN115731513B (zh) | 基于数字孪生的智慧园区管理系统 | |
CN104881655A (zh) | 一种基于多特征时空关系融合的人类行为识别方法 | |
CN107545281B (zh) | 一种基于深度学习的单一有害气体红外图像分类识别方法 | |
CN112036360B (zh) | 一种骑行人头盔属性识别方法 | |
CN111275694A (zh) | 一种注意力机制引导的递进式划分人体解析模型及方法 | |
CN113610760B (zh) | 一种基于u型残差神经网络的细胞图像分割示踪方法 | |
CN113920364A (zh) | 基于注意力机制及检测变换器的宫颈细胞检测与识别方法 | |
CN116959099B (zh) | 一种基于时空图卷积神经网络的异常行为识别方法 | |
CN111310607B (zh) | 基于计算机视觉和人工智能的公路安全风险识别方法及系统 | |
CN106682581B (zh) | 一种箱包识别方法以及设备 | |
CN115731600A (zh) | 一种基于半监督和特征融合的小目标检测方法 | |
CN114821420B (zh) | 基于多时间分辨率时态语义聚合网络的时序动作定位方法 | |
Gao et al. | Main-Sub Transformer with Spectral-Spatial Separable Convolution for Hyperspectral Image Classification | |
CN114973372A (zh) | 婴儿表情分类检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |