CN116721459A - 一种钓鱼行为检测方法和系统 - Google Patents
一种钓鱼行为检测方法和系统 Download PDFInfo
- Publication number
- CN116721459A CN116721459A CN202310491313.0A CN202310491313A CN116721459A CN 116721459 A CN116721459 A CN 116721459A CN 202310491313 A CN202310491313 A CN 202310491313A CN 116721459 A CN116721459 A CN 116721459A
- Authority
- CN
- China
- Prior art keywords
- fishing
- position information
- image
- water surface
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 62
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 146
- 238000012545 processing Methods 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 29
- 230000006399 behavior Effects 0.000 claims description 97
- 230000011218 segmentation Effects 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 16
- 238000013135 deep learning Methods 0.000 claims description 10
- 230000007797 corrosion Effects 0.000 claims description 8
- 238000005260 corrosion Methods 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 4
- 238000007689 inspection Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 241000276420 Lophius piscatorius Species 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 206010013647 Drowning Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种钓鱼行为检测方法和系统,该方法包括:获取待检测水域的原始图像,对原始图像进行水域位置分割得到水面区域掩膜图像;利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像;从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息;通过钓鱼区域位置信息对待检测图像进行裁切,检测裁切后图像得到边缘位置信息,对边缘位置信息进行直线检测拟合出图像中的鱼竿;结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息;根据手部位置信息确定钓鱼人员位置,再通过钓鱼行为识别模型识别钓鱼人员行为。基于该方法,还提出了一种钓鱼行为检测系统,本发明提高了危险水域环境中的钓鱼行为检测精度,提高了检测效率。
Description
技术领域
本发明属于钓鱼行为检测领域,特别涉及一种钓鱼行为检测方法和系统。
背景技术
近年来,钓鱼行为引发的人身安全事故越来越多,包括溺亡,导线触电等。然而河湖、水库面积广,人员巡检难度大,造成了管理不便的情况。
现有的钓鱼检测主要是依赖于安装监控摄像头对河湖岸边进行监控,然而视频监控容易存在监控死角,导致监控不完整,人工巡检难度大,从而严重影响钓鱼行为检测效果。此外通过单一的目标检测算法对人员进行检测,很容易出现误报问题,将行人误报为钓鱼人员,造成大量的人力资源浪费。因此,如何提供一种高效、可靠的巡检方案是目前本领域亟待解决的问题之一。
发明内容
为了解决上述技术问题,本发明提出了一种钓鱼行为检测方法和系统,通过结合无人机与深度学习技术,从无人机视角对钓鱼行为进行检测,避免了人工巡检难度大,监控设备范围小的问题。
为实现上述目的,本发明采用以下技术方案:
一种钓鱼行为检测方法,包括以下步骤:
获取待检测水域的原始图像,对获取的原始图像进行水域位置分割得到水面区域掩膜图像;
利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像;从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息;
通过所述钓鱼区域位置信息对待检测图像进行裁切,对裁切后的图像进行检测得到边缘位置信息,对所述边缘位置信息进行直线检测,拟合出位于图像中的鱼竿;结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息;
根据所述钓鱼人员的手部位置信息确定钓鱼人员位置,然后再通过钓鱼行为识别模型识别钓鱼人员行为。
进一步的,所述钓鱼行为识别模型构建的过程包括:
标注待检测区域实时图像中的人员构建钓鱼行为分析数据集;
利用钓鱼行为分析数据集对钓鱼行为识别模型进行训练得到训练后的钓鱼行为识别模型。
进一步的,所述钓鱼行为识别模型采用基于深度学习的神经网络。
进一步的,所述通过钓鱼行为识别模型分析钓鱼人员行为的过程包括:
根据所述钓鱼人员的手部位置信息确定钓鱼人员在鱼竿的具体方位;并以钓鱼人员手部位置为中心,裁切预设大小的手部位置图像;
将所述手部位置图像输入至训练后的钓鱼行为分析模型中,识别钓鱼人员行为。
进一步的,所述获取待检测水域的原始图像,对获取的原始图像进行水域位置分割得到水面区域掩膜图像的详细过程包括:
通过在无人机上搭载图像采集模块,按照预设路线巡航获取待检测水域的原始图像;
对所述待检测水域的原始图像进行水面区域标注构建水面区域训练集;
利用所述水面区域训练集对水面分割算法进行训练,得到训练后的水面分割模型;
将待检测区域的实时图像输入至训练后的水面分割模型中得到水面区域掩膜图像。
进一步的,所述利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像的过程包括:
利用形态学对水面区域掩膜图像进行腐蚀操作得到腐蚀后的水面区域掩膜图像;
将所述水面区域掩膜图像和腐蚀后的水面区域掩膜图像进行异或操作得到水面边界位置信息的掩膜图像。
进一步的,所述从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息的过程包括:利用矩形框对水面边界位置信息的掩膜图像进行框选并获取矩形框的位置信息,所述矩形框的位置信息为钓鱼区域位置信息。
进一步的,所述通过所述钓鱼区域位置信息对待检测图像进行裁切,对裁切后的图像进行检测得到边缘位置信息的详细过程包括:
通过所述钓鱼区域位置信息对待检测图像进行裁切;
裁切后的图像使用Canny检测算法进行检测,生成边缘位置信息。
进一步的,对所述边缘位置信息进行直线检测,拟合出位于图像中的鱼竿的详细过程包括:使用霍夫变换算法对边缘位置信息进行直线检测拟合出图像中的鱼竿。
本发明还提出了一种钓鱼行为检测系统,包括第一处理模块、第二处理模块、第三处理模块和检测模块;
所述第一处理模块用于获取待检测水域的原始图像,对获取的原始图像进行水域位置分割得到水面区域掩膜图像;
所述第二处理模块用于利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像;从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息;
所述第三处理模块用于通过所述钓鱼区域位置信息对待检测图像进行裁切,对裁切后的图像进行检测得到边缘位置信息,对所述边缘位置信息进行直线检测,拟合出位于图像中的鱼竿;结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息;
所述检测模块用于根据所述钓鱼人员的手部位置信息确定钓鱼人员位置,然后再通过钓鱼行为识别模型识别钓鱼人员行为。
发明内容中提供的效果仅仅是实施例的效果,而不是发明所有的全部效果,上述技术方案中的一个技术方案具有如下优点或有益效果:
本发明提出了一种钓鱼行为检测方法和系统,该方法包括:获取待检测水域的原始图像,对获取的原始图像进行水域位置分割得到水面区域掩膜图像;利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像;从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息;通过钓鱼区域位置信息对待检测图像进行裁切,对裁切后的图像进行检测得到边缘位置信息,对边缘位置信息进行直线检测,拟合出位于图像中的鱼竿;结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息;根据钓鱼人员的手部位置信息确定钓鱼人员位置,然后再通过钓鱼行为识别模型分析钓鱼人员行为。基于一种钓鱼行为检测方法,还提出了一种钓鱼行为检测系统,本发明通过结合无人机与深度学习技术,从无人机视角对钓鱼行为进行检测,避免了人工巡检难度大,监控设备范围小的问题。
本发明提出的一种钓鱼行为检测方法,在进行一次检测钓鱼人员行为之后,还进行细颗粒度的二次分析,大大提高了危险水域环境中的钓鱼行为检测精度,提高了检测效率。
附图说明
图1为本发明实施例1提出的一种钓鱼行为检测方法流程图;
图2为本发明实施例1提出的水面边界位置信息示意图;
图3为本发明实施例1提出的鱼竿位置信息示意图;
图4为本发明实施例2提出的一种钓鱼行为检测系统示意图。
具体实施方式
为能清楚说明本方案的技术特点,下面通过具体实施方式,并结合其附图,对本发明进行详细阐述。下文的公开提供了许多不同的实施例或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。此外,本发明可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施例和/或设置之间的关系。应当注意,在附图中所图示的部件不一定按比例绘制。本发明省略了对公知组件和处理技术及工艺的描述以避免不必要地限制本发明。
实施例1
本发明实施例1提出了一种钓鱼行为检测方法,通过无人机实时传输场景视频流信息获取图像帧,并利用云端算法实时处理图像帧信息。通过水面分割算法对无人机图像进行水域位置分割,在通过形态学的方式或者水面边界区域,通过直线检测的方式得到钓鱼竿与水域的位置信息,从到确定钓鱼人员,最后利用细粒度分类的方式二次判定人员行为,大大降低算法的误报率。
如图1为本发明实施例1提出的一种钓鱼行为检测方法流程图。
在步骤S100中,获取待检测水域的原始图像。本申请中通过无人机搭载H20T摄像头按照规定航线进行巡检,并传输原始图像到云端服务器。
在步骤S200中,对获取的原始图像进行水域位置分割得到水面区域掩膜图像;
对待检测水域的原始图像进行水面区域标注构建水面区域训练集;
利用水面区域训练集对水面分割算法进行训练,得到训练后的水面分割模型;
将待检测区域的实时图像输入至训练后的水面分割模型中得到水面区域掩膜图像。
本申请中水面分割算法采用基于深度学习的神经网络,水面分割模型在训练时,使用Adam优化器进行优化,动量为0.9,batch size为32,学习率为0.1,采用交叉熵损失函数和L1损失函数。
在步骤S300中,利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像;从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息;如图2为本发明实施例1提出的水面边界位置信息示意图;
步骤S300具体执行的过程包括:
利用形态学对水面区域掩膜图像进行腐蚀操作得到腐蚀后的水面区域掩膜图像;
将水面区域掩膜图像和腐蚀后的水面区域掩膜图像进行异或操作得到水面边界位置信息的掩膜图像;
利用矩形框对水面边界位置信息的掩膜图像进行框选并获取矩形框的位置信息,所述矩形框的位置信息为钓鱼区域位置信息。
在步骤S400中,通过钓鱼区域位置信息对待检测图像进行裁切,对裁切后的图像进行检测得到边缘位置信息,对边缘位置信息进行直线检测,拟合出位于图像中的鱼竿;结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息。
通过钓鱼区域位置信息对待检测图像进行裁切;裁切后的图像使用Canny检测算法进行检测,生成边缘位置信息;使用霍夫变换算法对边缘位置信息进行直线检测拟合出图像中的鱼竿,然后结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息。如图3为本发明实施例1提出的鱼竿位置信息示意图。其中鱼竿中远离水域的一段为钓鱼人员手部位置。
在步骤S500中,根据所述钓鱼人员的手部位置信息确定钓鱼人员位置,然后再通过钓鱼行为识别模型识别钓鱼人员行为;
标注待检测区域实时图像中的人员构建钓鱼行为分析数据集;
利用钓鱼行为分析数据集对钓鱼行为识别模型进行训练得到训练后的钓鱼行为识别模型;钓鱼行为识别模型采用基于深度学习的神经网络;7、钓鱼行为分析算法训练时,采用SGD优化器,动量为0.93,batch size为128,学习率为0.1,采用均方差损失函数,输出层采用Softmax进行概率判定,从而确认是否为钓鱼人员。
根据钓鱼人员的手部位置信息确定钓鱼人员在鱼竿的具体方位;并以钓鱼人员手部位置为中心,裁切预设大小的手部位置图像;钓鱼行为分析模型需要输入的图像为640*640。根据钓鱼人员手部位置信息可以确定行人具体位置在手部位置的左侧还是右侧,图像高度上手部位置在整体图像中心位置,因此可以确定具体人员位置信息。将手部位置图像输入至训练后的钓鱼行为分析模型中,识别钓鱼人员行为。
本发明实施例提出的一种钓鱼行为检测方法,基于无人机场景下的钓鱼行为检测方法,结合无人机技术与深度学习技术,通过云端算法能够实时处理无人机回传的场景数据,通过确定水域位置信息的方式确定钓鱼人与区域位置信息,并通过鱼竿与水岸的关系得到钓鱼人员的位置信息,最后通过行为分析的方式二次分析钓鱼人员行为,大大减少了误报率,提高工作效率。
实施例2
基于本发明实施例1提出的一种钓鱼行为检测方法,本发明实施例2还提出了一种钓鱼行为检测系统,如图4为本发明实施例2提出的一种钓鱼行为检测系统示意图,该系统包括:第一处理模块、第二处理模块、第三处理模块和检测模块;
第一处理模块用于获取待检测水域的原始图像,对获取的原始图像进行水域位置分割得到水面区域掩膜图像;
第二处理模块用于利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像;从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息;
第三处理模块用于通过钓鱼区域位置信息对待检测图像进行裁切,对裁切后的图像进行检测得到边缘位置信息,对边缘位置信息进行直线检测,拟合出位于图像中的鱼竿;结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息;
检测模块用于根据钓鱼人员的手部位置信息确定钓鱼人员位置,然后再通过钓鱼行为识别模型识别钓鱼人员行为。
第一处理模块具体执行的过程包括:通过无人机搭载H20T摄像头按照规定航线进行巡检,并传输原始图像到云端服务器;对待检测水域的原始图像进行水面区域标注构建水面区域训练集;利用水面区域训练集对水面分割算法进行训练,得到训练后的水面分割模型;将待检测区域的实时图像输入至训练后的水面分割模型中得到水面区域掩膜图像。
本申请中水面分割算法采用基于深度学习的神经网络,水面分割模型在训练时,使用Adam优化器进行优化,动量为0.9,batch size为32,学习率为0.1,采用交叉熵损失函数和L1损失函数。
第二处理模块具体执行的过程包括:利用形态学对水面区域掩膜图像进行腐蚀操作得到腐蚀后的水面区域掩膜图像;
将水面区域掩膜图像和腐蚀后的水面区域掩膜图像进行异或操作得到水面边界位置信息的掩膜图像;
利用矩形框对水面边界位置信息的掩膜图像进行框选并获取矩形框的位置信息,所述矩形框的位置信息为钓鱼区域位置信息。
第三处理模块具体执行的过程包括:通过钓鱼区域位置信息对待检测图像进行裁切;裁切后的图像使用Canny检测算法进行检测,生成边缘位置信息;使用霍夫变换算法对边缘位置信息进行直线检测拟合出图像中的鱼竿,然后结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息;其中鱼竿中远离水域的一段为钓鱼人员手部位置。
检测模块具体执行的过程包括:标注待检测区域实时图像中的人员构建钓鱼行为分析数据集;
利用钓鱼行为分析数据集对钓鱼行为识别模型进行训练得到训练后的钓鱼行为识别模型;钓鱼行为识别模型采用基于深度学习的神经网络;7、钓鱼行为分析算法训练时,采用SGD优化器,动量为0.93,batch size为128,学习率为0.1,采用均方差损失函数,输出层采用Softmax进行概率判定,从而确认是否为钓鱼人员。
根据钓鱼人员的手部位置信息确定钓鱼人员在鱼竿的具体方位;并以钓鱼人员手部位置为中心,裁切预设大小的手部位置图像;钓鱼行为分析模型需要输入的图像为640*640。根据钓鱼人员手部位置信息可以确定行人具体位置在手部位置的左侧还是右侧,图像高度上手部位置在整体图像中心位置,因此可以确定具体人员位置信息;将手部位置图像输入至训练后的钓鱼行为分析模型中,识别钓鱼人员行为。
本发明实施例2提出的一种钓鱼行为检测系统,基于无人机场景下的钓鱼行为检测方法,结合无人机技术与深度学习技术,通过云端算法能够实时处理无人机回传的场景数据,通过确定水域位置信息的方式确定钓鱼人与区域位置信息,并通过鱼竿与水岸的关系得到钓鱼人员的位置信息,最后通过行为分析的方式二次分析钓鱼人员行为,大大减少了误报率,提高工作效率。
本申请实施例提供的一种钓鱼行为检测系统中相关部分的说明可以参见本申请实施例1提供的一种钓鱼行为检测方法中对应部分的详细说明,在此不再赘述。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。另外,本申请实施例提供的上述技术方案中与现有技术中对应技术方案实现原理一致的部分并未详细说明,以免过多赘述。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制。对于所属领域的技术人员来说,在上述说明的基础上还可以做出其它不同形式的修改或变形。这里无需也无法对所有的实施方式予以穷举。在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种钓鱼行为检测方法,其特征在于,包括以下步骤:
获取待检测水域的原始图像,对获取的原始图像进行水域位置分割得到水面区域掩膜图像;
利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像;从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息;
通过所述钓鱼区域位置信息对待检测图像进行裁切,对裁切后的图像进行检测得到边缘位置信息,对所述边缘位置信息进行直线检测,拟合出位于图像中的鱼竿;结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息;
根据所述钓鱼人员的手部位置信息确定钓鱼人员位置,然后再通过钓鱼行为识别模型识别钓鱼人员行为。
2.根据权利要求1所述的一种钓鱼行为检测方法,其特征在于,所述钓鱼行为识别模型构建的过程包括:
标注待检测区域实时图像中的人员构建钓鱼行为分析数据集;
利用钓鱼行为分析数据集对钓鱼行为识别模型进行训练得到训练后的钓鱼行为识别模型。
3.根据权利要求2所述的一种钓鱼行为检测方法,其特征在于,所述钓鱼行为识别模型采用基于深度学习的神经网络。
4.根据权利要求2所述的一种钓鱼行为检测方法,其特征在于,所述通过钓鱼行为识别模型分析钓鱼人员行为的过程包括:
根据所述钓鱼人员的手部位置信息确定钓鱼人员在鱼竿的具体方位;并以钓鱼人员手部位置为中心,裁切预设大小的手部位置图像;
将所述手部位置图像输入至训练后的钓鱼行为分析模型中,识别钓鱼人员行为。
5.根据权利要求1所述的一种钓鱼行为检测方法,其特征在于,所述获取待检测水域的原始图像,对获取的原始图像进行水域位置分割得到水面区域掩膜图像的详细过程包括:
通过在无人机上搭载图像采集模块,按照预设路线巡航获取待检测水域的原始图像;
对所述待检测水域的原始图像进行水面区域标注构建水面区域训练集;
利用所述水面区域训练集对水面分割算法进行训练,得到训练后的水面分割模型;
将待检测区域的实时图像输入至训练后的水面分割模型中得到水面区域掩膜图像。
6.根据权利要求1所述的一种钓鱼行为检测方法,其特征在于,所述利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像的过程包括:
利用形态学对水面区域掩膜图像进行腐蚀操作得到腐蚀后的水面区域掩膜图像;
将所述水面区域掩膜图像和腐蚀后的水面区域掩膜图像进行异或操作得到水面边界位置信息的掩膜图像。
7.根据权利要求6所述的一种钓鱼行为检测方法,其特征在于,所述从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息的过程包括:利用矩形框对水面边界位置信息的掩膜图像进行框选并获取矩形框的位置信息,所述矩形框的位置信息为钓鱼区域位置信息。
8.根据权利要求1所述的一种钓鱼行为检测方法,其特征在于,所述通过所述钓鱼区域位置信息对待检测图像进行裁切,对裁切后的图像进行检测得到边缘位置信息的详细过程包括:
通过所述钓鱼区域位置信息对待检测图像进行裁切;
裁切后的图像使用Canny检测算法进行检测,生成边缘位置信息。
9.根据权利要求8所述的一种钓鱼行为检测方法,其特征在于,对所述边缘位置信息进行直线检测,拟合出位于图像中的鱼竿的详细过程包括:使用霍夫变换算法对边缘位置信息进行直线检测拟合出图像中的鱼竿。
10.一种钓鱼行为检测系统,其特征在于,包括第一处理模块、第二处理模块、第三处理模块和检测模块;
所述第一处理模块用于获取待检测水域的原始图像,对获取的原始图像进行水域位置分割得到水面区域掩膜图像;
所述第二处理模块用于利用形态学对水面区域掩膜图像处理得到水面边界位置信息的掩膜图像;从水面边界位置信息的掩膜图像中框选出钓鱼区域位置信息;
所述第三处理模块用于通过所述钓鱼区域位置信息对待检测图像进行裁切,对裁切后的图像进行检测得到边缘位置信息,对所述边缘位置信息进行直线检测,拟合出位于图像中的鱼竿;结合水面区域位置和鱼竿位置获取钓鱼人员的手部位置信息;
所述检测模块用于根据所述钓鱼人员的手部位置信息确定钓鱼人员位置,然后再通过钓鱼行为识别模型识别钓鱼人员行为。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310491313.0A CN116721459A (zh) | 2023-04-26 | 2023-04-26 | 一种钓鱼行为检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310491313.0A CN116721459A (zh) | 2023-04-26 | 2023-04-26 | 一种钓鱼行为检测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116721459A true CN116721459A (zh) | 2023-09-08 |
Family
ID=87872318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310491313.0A Pending CN116721459A (zh) | 2023-04-26 | 2023-04-26 | 一种钓鱼行为检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116721459A (zh) |
-
2023
- 2023-04-26 CN CN202310491313.0A patent/CN116721459A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107153817B (zh) | 行人重识别数据标注方法和装置 | |
CN110084165B (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN114973002A (zh) | 一种基于改进的YOLOv5的麦穗检测方法 | |
CN111091110A (zh) | 一种基于人工智能的反光背心穿戴识别方法 | |
CN111145222A (zh) | 一种结合烟雾运动趋势和纹理特征的火灾检测方法 | |
CN115995056A (zh) | 一种基于深度学习的桥梁病害自动识别方法 | |
CN111582069B (zh) | 一种空基监视平台的轨道障碍物零样本分类方法及装置 | |
CN113011338A (zh) | 一种车道线检测方法及系统 | |
CN115619719A (zh) | 一种基于改进Yolo v3网络模型的松材线虫病疫木检测方法 | |
CN116645616A (zh) | 一种利用遥感图像评估自然灾害中建筑物损坏程度的方法 | |
CN104778699A (zh) | 一种自适应对象特征的跟踪方法 | |
CN114267082A (zh) | 基于深度理解的桥侧坠落行为识别方法 | |
CN117152617A (zh) | 一种城市洪涝识别方法及系统 | |
CN116052097A (zh) | 一种地图要素检测方法、装置、电子设备和存储介质 | |
CN117523420B (zh) | 一种基于雷达产品数据的闪电落区识别方法及系统 | |
CN114005064A (zh) | 一种基于机器视觉技术的生物式水体污染预警方法及装置 | |
CN117975360A (zh) | 一种基于深度学习的堆放物判别方法及判别系统 | |
CN113850151A (zh) | 一种驾驶员分心行为的识别方法、装置、终端及存储介质 | |
CN113052139A (zh) | 一种基于深度学习双流网络的攀爬行为检测方法及系统 | |
CN112085101A (zh) | 一种高性能高可靠的环境融合感知方法及系统 | |
CN116630890A (zh) | 一种通过对钓鱼区域分析的钓鱼行为检测方法和系统 | |
CN116721459A (zh) | 一种钓鱼行为检测方法和系统 | |
CN111222477A (zh) | 一种基于视觉的双手离开方向盘检测方法及装置 | |
CN116311071A (zh) | 一种融合帧差和ca的变电站周界异物识别方法及系统 | |
CN115861709A (zh) | 基于卷积神经网络的智能视觉检测设备及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |