CN115410280B - 一种基于人体朝向判断的钓鱼行为检测方法 - Google Patents

一种基于人体朝向判断的钓鱼行为检测方法 Download PDF

Info

Publication number
CN115410280B
CN115410280B CN202211365487.4A CN202211365487A CN115410280B CN 115410280 B CN115410280 B CN 115410280B CN 202211365487 A CN202211365487 A CN 202211365487A CN 115410280 B CN115410280 B CN 115410280B
Authority
CN
China
Prior art keywords
fishing
pedestrian
picture
human body
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211365487.4A
Other languages
English (en)
Other versions
CN115410280A (zh
Inventor
沈韬
康凯
孙俊
孙涛
艾坤
刘海峰
王子磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Zhongke Leinao Intelligent Technology Co ltd
Original Assignee
Hefei Zhongke Leinao Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Zhongke Leinao Intelligent Technology Co ltd filed Critical Hefei Zhongke Leinao Intelligent Technology Co ltd
Priority to CN202211365487.4A priority Critical patent/CN115410280B/zh
Publication of CN115410280A publication Critical patent/CN115410280A/zh
Application granted granted Critical
Publication of CN115410280B publication Critical patent/CN115410280B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于人体朝向判断的钓鱼行为检测方法,属于钓鱼行为检测技术领域。本发明结合人体朝向判断模型分析得出行人的朝向,根据行人的朝向来调整裁剪方式,从而尽可能多的将鱼竿部分裁剪下来;按语义分割的方法标注图片中鱼竿的多边形,再用图像修复算法去除图片中的鱼竿,去除鱼竿的图片作为负样本,能够更好的让模型专注于鱼竿的信息,提高模型学习的准确率,获得效果更好的分类模型;在传统分类模型的基础上,添加一个鱼竿分割的分支,让网络可以更专注到鱼竿的信息,推理时无需对鱼竿等进行语义分割,也无需复杂的后处理,避免分割不准、后处理逻辑不对导致的误判,在复杂场景有较高的检测精度。

Description

一种基于人体朝向判断的钓鱼行为检测方法
技术领域
本发明涉及钓鱼行为检测技术领域,具体涉及一种基于人体朝向判断的钓鱼行为检测方法。
背景技术
发电厂发出的电,并不是只供附近的人们使用,还要传输到很远的地方,满足更多的需要。这些电不能直接通过普通的电线传输出去,而是要用高压输电线路传送的。高压输电线路不可避免地跨越众多湖泊,因钓鱼而触电的事故屡有发生。
现有的钓鱼行为检测方法主要是先检测行人,再在行人周围用语义分割的方法分割鱼竿,结合人和鱼竿的信息判断是否有人钓鱼。现有检测方法在稍微复杂的场景(比如场景中包含栏杆、电线、船桨、树枝等物体)会失效或检测准确度大大降低,因为这些物品很容易被误检成鱼竿。同时鱼竿比较细长,很难分割得很准确,从而影响后续判断。为此,提出一种基于人体朝向判断的钓鱼行为检测方法。
发明内容
本发明所要解决的技术问题在于:如何解决复杂场景下现有检测方法存在的误检、准确率低等问题,提供了一种基于人体朝向判断的钓鱼行为检测方法,让网络自主学习是否存在钓鱼行为,推理时无需对鱼竿等进行语义分割,也无需复杂的后处理,避免分割不准、后处理逻辑不对导致的误判,在复杂场景也会有较高的检测精度。
本发明是通过以下技术方案解决上述技术问题的,本发明包括以下步骤:
步骤S1:行人检测
通过行人检测模型对监控视频中待检测图片进行逐帧检测,判断图片中是否有人,如果没有,则返回继续检测下一张图片,如果有人,则输出行人框;
步骤S2:钓鱼行为分析
将步骤S1中的行人框从待检测图片中裁剪下来,输入到人体朝向判断模型中,判断行人朝向,并根据行人朝向的判断结果按对应方向对行人框的大小进行扩充;
根据扩充后的行人框的范围将行人图片从待检测图片中裁剪下来,输入到钓鱼行为判断模型中,判断是否存在钓鱼行为。
更进一步地,在所述步骤S1中,行人框坐标记为(x,y,w,h),其中,x、y为行人框任一边角点在图片中的x轴和y轴坐标,w表示行人框的宽度,h表示行人框的高度,x-y两轴坐标系为像素坐标系。
更进一步地,在所述步骤S1中,所述行人检测模型基于YOLOv5s网络实现。
更进一步地,所述步骤S2的具体处理过程如下:
步骤S21:根据步骤S1中行人检测模型输出的行人框坐标将行人图片从待检测图片中裁剪下来,输入到人体朝向判断模型中;
步骤S22:根据步骤S21中判断模型判断的行人人体的沿水平方向的左右朝向,在步骤S1中行人框的基础上,将宽沿人体朝向方向侧扩充2n倍,高向上扩充n倍;若无法判断出行人的左右朝向,则将行人框往左、右和上三个方向扩充n倍,其中n为正数;
步骤S23:调整后的行人框坐标记作
Figure DEST_PATH_IMAGE001
,根据调整后的行人框坐标将行人图片从待检测图片中裁剪下来,输入到钓鱼行为判断模型中,判断是否存在钓鱼行为。
更进一步地,在所述步骤S21中,人体朝向判断模型是一个三分类模型,分类结果分别是人体的3个朝向,即左、右和其他。
更进一步地,在所述步骤S21中,人体朝向判断模型的训练过程如下:
步骤S211:获取大量含有人的数据图片,将图片中人的朝向按照左、右、其他三种类别进行语义分类标注;
步骤S212:将步骤S211中标注完成的数据集投入到训练网络中,训练网络的主干网络使用resnet50,损失函数采用交叉熵损失函数,训练完成后即可获得人体朝向判断模型。
更进一步地,在所述步骤S23中,钓鱼行为判断模型的训练过程如下:
步骤S231:所有的原始图片均包含有人的数据图片,将含有鱼竿的图片进行语义分割,标注图片中鱼竿的多边形,按照步骤S2中图片裁剪方式,将图片中的人从原始图片中裁剪出来,形成数据集;
步骤S232:将数据集中有钓鱼行为的图片作为正样本,无钓鱼行为的图片作为负样本,并在正样本中增加类似鱼竿的噪声,然后进行数据增强处理;
步骤S233:将经过步骤S232处理的数据集投入到训练网络中,训练网络的主干网络使用resnet50,损失函数采用多任务损失函数,训练完成后即可获得钓鱼行为判断模型。
更进一步地,在所述步骤S232中,数据增强处理包括多尺度变换、旋转、翻转增强处理,以及通过图像修复算法去除正样本中被语义分割标注出的鱼竿,将去除鱼竿的图片当做负样本,该部分正负样本直接的差异是有无鱼竿。
更进一步地,在所述步骤S233中,所述钓鱼行为判断模型的输出有两个分支,其中一个分支是分类分支,另一个分支是语义分割的分支,两个分支共享主干网络;其中,分类分支输出的是二分类,语义分割的分支输出的是鱼竿分割结果,语义分割分支仅参与训练,不参与检测过程。
本发明相比现有技术具有以下优点:该基于人体朝向判断的钓鱼行为检测方法,结合人体朝向判断模型分析得出行人的朝向,根据行人的朝向来调整裁剪方式,从而尽可能多的将鱼竿部分裁剪下来;按语义分割的方法标注图片中鱼竿的多边形,再用图像修复算法去除图片中的鱼竿,去除鱼竿的图片作为负样本,能够更好的让模型专注于鱼竿的信息,提高模型学习的准确率,获得效果更好的分类模型;在传统分类模型的基础上,添加一个鱼竿分割的分支,让网络可以更专注到鱼竿的信息,推理时无需对鱼竿等进行语义分割,也无需复杂的后处理,避免分割不准、后处理逻辑不对导致的误判,在复杂场景也会有较高的检测精度。
附图说明
图1是本发明实施例中基于人体朝向判断的钓鱼行为检测方法的流程示意图;
图2是本发明实施例中算法自主钓鱼行为分析的流程示意图;
图3是本发明实施例中钓鱼行为判断模型训练框架示意图;
图4是本发明实施例中钓鱼行为判断模型测试框架示意图;
图5是本发明实施例中残差组件结构示意图;
图6是本发明实施例中YOLOv5s网络的结构示意图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1所示,本实施例提供一种技术方案:一种基于人体朝向判断的钓鱼行为检测方法,主要包括以下两个步骤:行人检测和算法自主钓鱼行为分析。由于钓鱼的主体一定是人,因此先判断是否存在人,如果场景中有人,则再判断此人是否有钓鱼的行为,如果判断此人有钓鱼的行为则预警。
其中算法自主钓鱼行为分析流程如图2所示,基于行人检测步骤的检测结果,进行人体朝向的分析。分析朝向的目的是为了裁剪人体框的时候尽可能的包含更多的鱼竿部分,因为通常钓鱼时人的朝向和鱼竿所在的方向是大体一致的。根据人体的朝向将人和鱼竿从图像中裁剪下来,输入到钓鱼行为判断模型中,进而判断是否存在钓鱼行为。
下面从行人检测、算法自主钓鱼行为分析两个部分详细介绍本发明的技术方案。
第一阶段:行人检测
通过行人检测模型可以判断检测图片中是否有人,如果没有,则返回继续检测下一张图片,如果有人,则输出行人框,保存方式是左上顶点坐标和宽、高(x,y,w,h);
在本实施例中,行人检测模型基于YOLOv5s网络实现,YOLOv5s网络结构见图6,整个网络包括输入端、主干网络(Backbone)、检测头(Neck)、预测头(Prediction)。YOLOv5s是基于anchor的目标检测方法,对于行人检测这个任务来说,在检测前会预设一定数量的anchor,当输入一张图片,网络会输出有没有某个anchor是符合行人特征的,如果有,则再调整该anchor的位置大小,最后输出准确的行人的位置。
在本实施例中,行人检测模型训练的主要流程包括图像输入神经网络(YOLOv5s网络),得到模型的输出结果,计算模型的输出与真实值的损失,计算损失值的梯度,最后用梯度下降算法更新模型参数。
在本实施例中,YOLOv5s算法用CIOU来评估预测框和真实框的位置损失,CIOU公式如下:
Figure DEST_PATH_IMAGE002
其中:
Figure DEST_PATH_IMAGE003
表示预测框与真实框的交并比;/>
Figure DEST_PATH_IMAGE004
表示预测框和真实框的中心距离的平方;/>
Figure DEST_PATH_IMAGE005
是两框最小包围矩形的斜对角线长度;/>
Figure DEST_PATH_IMAGE006
表征长宽比的一致性;/>
Figure DEST_PATH_IMAGE007
是调节因子,
Figure DEST_PATH_IMAGE008
越大其影响越大。Yolov5算法用focalloss来评价目标框和预测框的分类损失和置信度损失,可以在交叉熵损失的基础上,增加难分类样本的权重。
第二阶段:算法自主钓鱼行为分析
该步骤的输入是裁剪下来的行人图片,行人的位置在行人检测阶段中已经确定,但如果仅仅将行人裁剪下来,会丢失比较多鱼竿的信息。因此,考虑到钓鱼时人的朝向和鱼竿所在的方向是大体一致的,根据人体的朝向将人和鱼竿同时从图像中裁剪下来。因此该步骤涉及到两个神经网络模型,人体朝向判断模型和钓鱼行为判断模型。
具体过程如下:根据上一步行人检测模型输出的行人框坐标(x,y,w,h)将行人图片裁剪下来,输入到人体朝向判断模型中,若人体朝向是‘左’,在(x,y,w,h)的基础上,宽往左扩充1倍,高向上扩充0.5倍。若人体朝向是‘右’,在(x,y,w,h)的基础上,宽往右扩充1倍,高向上扩充0.5倍。若人体朝向是‘其他’,在(x,y,w,h)的基础上,宽往左、右各扩充0.5倍,高向上扩充0.5倍。调整后的行人框坐标记作
Figure 186871DEST_PATH_IMAGE001
,跟(x,y,w,h)相比,会包含更多的鱼竿部分,根据调整后的行人框将行人图片从原图(待检测图片)中裁剪下来,输入到钓鱼行为判断模型中,判断是否存在钓鱼行为。
下面对人体朝向判断模型的训练流程进行说明:
训练过程如下:
1.制作数据集,获取大量含有人的数据图片,将图片中人的朝向按照‘左’、‘右’、‘其他’三种类别进行语义分类标注。
2.训练模型,将上一步标注完成的数据集投入到训练网络中,主干网络使用resnet50,损失函数使用的是交叉熵损失函数,公式如下:
Figure DEST_PATH_IMAGE009
,其中N是样本数量,/>
Figure DEST_PATH_IMAGE010
代表标签值,/>
Figure DEST_PATH_IMAGE011
代表网络预测值;训练完成后即可获得人体朝向判断模型。
在本实施例中,人体朝向判断模型是一个3分类模型,分别是人体的3个朝向:左、右和其他。主干网络使用resnet50,网络结构如表1所示,整个网络由5个块组成,第一个块是一个7*7的卷积,之后接一个3*3的最大池化,后面4个块分别是由3、4、6、3个残差组件组成。残差组件结构示意图如图5所示。
下面对钓鱼行为判断模型的训练流程进行说明:
1.数据处理
所有的原始图片都是包含有人的数据图片,将含有鱼竿的图片进行语义分割,标注图片中鱼竿的多边形;按照步骤二所述图片裁剪方法,将图片中的人从原始图片中裁剪出来,形成数据集。将数据集中有钓鱼行为的图片作为正样本,无钓鱼行为的图片作为负样本。为了增加模型鲁棒性,会在正样本中随机划线,模拟‘电线’、‘栏杆’、‘芦苇’等等类似鱼竿的噪声。另外,在数据增强方面,本发明除了采用一般的多尺度变换、旋转、翻转等数据增强方法,为了让模型可以更专注于学习到鱼竿的信息,本发明还设计了一种基于图像修复的离线数据增强方法:通过图像修复算法去除正样本中被语义分割标注出的鱼竿,将去除鱼竿的图片当做负样本(非钓鱼),那么这部分正负样本直接的差异仅仅是有无鱼竿。
经过本步骤处理的数据训练集,能够更好的让模型专注于鱼竿的信息,提高模型学习的准确率,获得效果更好的分类模型。
2.模型训练
将上一步处理好的数据集投入到训练网络中,对钓鱼行为判断模型进行训练。在钓鱼行为判断模型框架设计方面,主干网络使用resnet50,网络结构如表1所示,损失函数为多任务损失。网络的输出有两个分支,其中一个分支是传统的分类网络分支,另一个分支是语义分割的分支,这两个分支共享主干网络。分类分支输出的是二分类(钓鱼、不钓鱼),语义分割的分支输出的是鱼竿分割。添加鱼竿语义分割的分支,目的是让网络可以更专注到鱼竿的信息,语义分割分支参与训练,但是实际使用时不参与推理测试。训练时的网络框架如图3所示,测试时的网络框架如图4所示。resnet50网络结构如下表1所示:
Figure DEST_PATH_IMAGE012
综上所述,上述实施例的基于人体朝向判断的钓鱼行为检测方法,结合人体朝向判断模型分析得出行人的朝向,根据行人的朝向来调整裁剪方式,从而尽可能多的将鱼竿部分裁剪下来;按语义分割的方法标注图片中鱼竿的多边形,再用图像修复算法去除图片中的鱼竿,去除鱼竿的图片作为负样本,能够更好的让模型专注于鱼竿的信息,提高模型学习的准确率,获得效果更好的分类模型;在传统分类模型的基础上,添加一个鱼竿分割的分支,让网络可以更专注到鱼竿的信息,推理时无需对鱼竿等进行语义分割,也无需复杂的后处理,避免分割不准、后处理逻辑不对导致的误判,在复杂场景也会有较高的检测精度。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (3)

1.一种基于人体朝向判断的钓鱼行为检测方法,其特征在于,包括以下步骤:
步骤S1:行人检测
通过行人检测模型对监控视频中待检测图片进行逐帧检测,判断图片中是否有人,如果没有,则返回继续检测下一张图片,如果有人,则输出行人框;
步骤S2:钓鱼行为分析
将步骤S1中的行人框从待检测图片中裁剪下来,输入到人体朝向判断模型中,判断行人朝向,并根据行人朝向的判断结果按对应方向对行人框的大小进行扩充;
根据扩充后的行人框的范围将行人图片从待检测图片中裁剪下来,输入到钓鱼行为判断模型中,判断是否存在钓鱼行为;
在所述步骤S1中,行人框坐标记为(x,y,w,h),其中,x、y为行人框任一边角点在图片中的x轴和y轴坐标,w表示行人框的宽度,h表示行人框的高度,x-y两轴坐标系为像素坐标系;
所述步骤S2的具体处理过程如下:
步骤S21:根据步骤S1中行人检测模型输出的行人框坐标将行人图片从待检测图片中裁剪下来,输入到人体朝向判断模型中;
步骤S22:根据步骤S21中判断模型判断的行人人体的沿水平方向的左右朝向,在步骤S1中行人框的基础上,将宽沿人体朝向方向侧扩充2n倍,高向上扩充n倍;若无法判断出行人的左右朝向,则将行人框往左、右和上三个方向扩充n倍,其中n为正数;
步骤S23:调整后的行人框坐标记作
Figure QLYQS_1
,根据调整后的行人框坐标将行人图片从待检测图片中裁剪下来,输入到钓鱼行为判断模型中,判断是否存在钓鱼行为;
在所述步骤S21中,人体朝向判断模型是一个三分类模型,分类结果分别是人体的3个朝向,即左、右和其他;
在所述步骤S23中,钓鱼行为判断模型的训练过程如下:
步骤S231:所有的原始图片均包含有人的数据图片,将含有鱼竿的图片进行语义分割,标注图片中鱼竿的多边形,按照步骤S2中图片裁剪方式,将图片中的人从原始图片中裁剪出来,形成数据集;
步骤S232:将数据集中有钓鱼行为的图片作为正样本,无钓鱼行为的图片作为负样本,并在正样本中增加类似鱼竿的噪声,然后进行数据增强处理;
步骤S233:将经过步骤S232处理的数据集投入到训练网络中,训练网络的主干网络使用resnet50,损失函数采用多任务损失函数,训练完成后即可获得钓鱼行为判断模型;
在所述步骤S232中,数据增强处理包括多尺度变换、旋转、翻转增强处理,以及通过图像修复算法去除正样本中被语义分割标注出的鱼竿,将去除鱼竿的图片当做负样本;
在所述步骤S21中,人体朝向判断模型的训练过程如下:
步骤S211:获取大量含有人的数据图片,将图片中人的朝向按照左、右、其他三种类别进行语义分类标注;
步骤S212:将步骤S211中标注完成的数据集投入到训练网络中,训练网络的主干网络使用resnet50,损失函数采用交叉熵损失函数,训练完成后即可获得人体朝向判断模型。
2.根据权利要求1所述的一种基于人体朝向判断的钓鱼行为检测方法,其特征在于:在所述步骤S1中,所述行人检测模型基于YOLOv5s网络实现。
3.根据权利要求1所述的一种基于人体朝向判断的钓鱼行为检测方法,其特征在于:在所述步骤S233中,所述钓鱼行为判断模型的输出有两个分支,其中一个分支是分类分支,另一个分支是语义分割的分支,两个分支共享主干网络;其中,分类分支输出的是二分类,语义分割的分支输出的是鱼竿分割结果,语义分割分支仅参与训练,不参与检测过程。
CN202211365487.4A 2022-11-03 2022-11-03 一种基于人体朝向判断的钓鱼行为检测方法 Active CN115410280B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211365487.4A CN115410280B (zh) 2022-11-03 2022-11-03 一种基于人体朝向判断的钓鱼行为检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211365487.4A CN115410280B (zh) 2022-11-03 2022-11-03 一种基于人体朝向判断的钓鱼行为检测方法

Publications (2)

Publication Number Publication Date
CN115410280A CN115410280A (zh) 2022-11-29
CN115410280B true CN115410280B (zh) 2023-06-16

Family

ID=84169112

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211365487.4A Active CN115410280B (zh) 2022-11-03 2022-11-03 一种基于人体朝向判断的钓鱼行为检测方法

Country Status (1)

Country Link
CN (1) CN115410280B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180063604A (ko) * 2016-12-02 2018-06-12 창원대학교 산학협력단 원격낚시를 이용한 낚시 시뮬레이터
JP2018183102A (ja) * 2017-04-26 2018-11-22 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム
KR20200036592A (ko) * 2018-09-28 2020-04-07 부경대학교 산학협력단 자동 조업 시스템
WO2021012348A1 (zh) * 2019-07-23 2021-01-28 深圳大学 一种物体属性识别模型的生成方法、存储介质及电子设备
CN114219781A (zh) * 2021-12-06 2022-03-22 盛视科技股份有限公司 基于场景解耦的偷钓行为检测方法、装置及可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105374030B (zh) * 2015-10-12 2017-12-15 北京深视科技有限公司 一种背景模型和运动物体检测方法及系统
CN108388871B (zh) * 2018-02-28 2021-05-18 中国计量大学 一种基于车身回归的车辆检测方法
CN111583265A (zh) * 2020-05-07 2020-08-25 赛特斯信息科技股份有限公司 基于编解码器结构实现钓鱼行为检测处理的方法及相应的语义分割网络系统
CN115100732A (zh) * 2021-03-08 2022-09-23 深圳云天励飞技术股份有限公司 钓鱼检测方法、装置、计算机设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180063604A (ko) * 2016-12-02 2018-06-12 창원대학교 산학협력단 원격낚시를 이용한 낚시 시뮬레이터
JP2018183102A (ja) * 2017-04-26 2018-11-22 京セラ株式会社 電子機器、電子機器の制御方法、及びプログラム
KR20200036592A (ko) * 2018-09-28 2020-04-07 부경대학교 산학협력단 자동 조업 시스템
WO2021012348A1 (zh) * 2019-07-23 2021-01-28 深圳大学 一种物体属性识别模型的生成方法、存储介质及电子设备
CN114219781A (zh) * 2021-12-06 2022-03-22 盛视科技股份有限公司 基于场景解耦的偷钓行为检测方法、装置及可读存储介质

Also Published As

Publication number Publication date
CN115410280A (zh) 2022-11-29

Similar Documents

Publication Publication Date Title
CN113688652B (zh) 一种异常驾驶行为的处理方法和装置
CN110807422A (zh) 一种基于深度学习的自然场景文本检测方法
US20180018503A1 (en) Method, terminal, and storage medium for tracking facial critical area
CN109960742B (zh) 局部信息的搜索方法及装置
CN111488770A (zh) 交通标志识别方法、神经网络模型的训练方法和装置
CN108171112A (zh) 基于卷积神经网络的车辆识别与跟踪方法
CN105740910A (zh) 一种车辆物件检测方法及装置
CN105654067A (zh) 一种车辆检测方法及装置
CN110598698B (zh) 基于自适应区域建议网络的自然场景文本检测方法和系统
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
CN110599453A (zh) 一种基于图像融合的面板缺陷检测方法、装置及设备终端
CN110598715A (zh) 图像识别方法、装置、计算机设备及可读存储介质
CN112508989B (zh) 一种图像处理方法、装置、服务器以及介质
CN111985488B (zh) 一种基于离线高斯模型的目标检测分割方法及系统
Tang et al. Smoking behavior detection based on improved YOLOv5s algorithm
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN116740528A (zh) 一种基于阴影特征的侧扫声呐图像目标检测方法及系统
CN111881732B (zh) 一种基于svm的人脸质量评价方法
CN114170570A (zh) 一种适用于拥挤场景下的行人检测方法及系统
CN109840905A (zh) 电力设备锈迹检测方法及系统
CN113191216A (zh) 基于姿态识别和c3d网络的多人实时动作识别方法和系统
CN117611994A (zh) 基于注意力机制加权特征融合的遥感图像目标检测方法
CN115410280B (zh) 一种基于人体朝向判断的钓鱼行为检测方法
CN112733686A (zh) 用于云联邦的图像中的目标物识别方法及装置
CN115937492B (zh) 一种基于特征识别的变电设备红外图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant