CN114943936B - 目标行为识别方法、装置、电子设备及存储介质 - Google Patents
目标行为识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114943936B CN114943936B CN202210688810.5A CN202210688810A CN114943936B CN 114943936 B CN114943936 B CN 114943936B CN 202210688810 A CN202210688810 A CN 202210688810A CN 114943936 B CN114943936 B CN 114943936B
- Authority
- CN
- China
- Prior art keywords
- target
- behavior detection
- image frames
- frames
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000001514 detection method Methods 0.000 claims abstract description 172
- 238000012545 processing Methods 0.000 claims abstract description 28
- 230000006399 behavior Effects 0.000 claims description 259
- 238000000605 extraction Methods 0.000 claims description 31
- 230000004044 response Effects 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000004458 analytical method Methods 0.000 abstract description 5
- 238000004590 computer program Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A30/00—Adapting or protecting infrastructure or their operation
- Y02A30/60—Planning or developing urban green infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了目标行为识别方法、装置、电子设备及存储介质,涉及人工智能技术领域,尤其涉及图像处理和智能视频分析等技术领域,可应用于智能云、智慧城市、城市治理和智能城管场景下。具体实现方案为:对采集的视频流进行抽帧,获取N个目标图像帧,并对目标图像帧进行行为识别,获取目标图像帧上的行为检测框,对行为检测框进行聚类处理,获取M个聚类簇,获取图像帧上的感兴趣区域,并基于感兴趣区域和聚类簇中包括的行为检测框,确定目标行为检测框。本公开通过对视频流抽帧得到的目标图像帧进行行为识别以获取行为检测框并进行聚类处理得到聚类簇,基于感兴趣区域和行为检测框确定目标行为检测框,提高了识别结果的准确度,增强了识别效果。
Description
技术领域
本公开涉及人工智能技术领域中的图像处理和智能视频分析等技术领域,可应用于智能云、智慧城市、城市治理和智能城管场景下,尤其涉及一种目标行为识别方法、装置、电子设备及存储介质。
背景技术
目前,对于城市治理中的违章行为识别的场景,通过摄像头进行监测处理来实现违章行为识别,但是大多基于单帧图片直接输出相应的违章行为识别结果,无法有效识别实际场景中复杂的违章内容,识别结果的准确度一般,使得识别效果并不理想。
发明内容
本公开提供了一种目标行为识别方法、装置、电子设备及存储介质。
根据第一方面,提供了一种目标行为识别方法,包括:对采集的视频流进行抽帧,以获取N个目标图像帧,并对所述目标图像帧进行行为识别,以获取所述目标图像帧上的行为检测框,其中,所述N为正整数;对所述行为检测框进行聚类处理,获取M个聚类簇,其中,所述M均为正整数;获取所述图像帧上的感兴趣区域,并基于所述感兴趣区域和所述聚类簇中包括的行为检测框,确定目标行为检测框。
根据第二方面,提供了一种目标行为识别装置,包括:抽帧模块,用于对采集的视频流进行抽帧,以获取N个目标图像帧,并对所述目标图像帧进行行为识别,以获取所述目标图像帧上的行为检测框,其中,所述N为正整数;聚类模块,用于对所述行为检测框进行聚类处理,获取M个聚类簇,其中,所述M均为正整数;确定模块,用于获取所述图像帧上的感兴趣区域,并基于所述感兴趣区域和所述聚类簇中包括的行为检测框,确定目标行为检测框。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开第一方面所述的目标行为识别方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据本公开第一方面所述的目标行为识别方法。
根据第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开第一方面所述的目标行为识别方法的步骤。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的目标行为识别方法的流程示意图;
图2是根据本公开第二实施例的目标行为识别方法的流程示意图;
图3是目标行为识别方法的抽帧示意图;
图4是目标行为识别方法的目标行为识别示意图;
图5是目标行为识别方法的聚类处理示意图;
图6是根据本公开第三实施例的目标行为识别方法的流程示意图;
图7是根据本公开第四实施例的目标行为识别方法的流程示意图;
图8是根据本公开第一实施例的目标行为识别装置的框图;
图9是根据本公开第二实施例的目标行为识别装置的框图;
图10是用来实现本公开实施例的目标行为识别方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
人工智能(Artificial Intelligence,简称AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。目前,AI技术具有自动化程度高、精确度高、成本低的优点,得到了广泛的应用。
图像处理(Image Processing)是用计算机对图像进行分析,以达到所需结果的技术。又称影像处理。图像处理一般指数字图像处理。数字图像是指用工业相机、摄像机、扫描仪等设备经过拍摄得到的一个大的二维数组,该数组的元素称为像素,其值称为灰度值。图像处理技术一般包括图像压缩,增强和复原,匹配、描述和识别3个部分。
智能视频分析(Intelligent Video System,简称IVS)就是使用计算机图像视觉分析技术,通过将场景中背景和目标分离进而分析并追踪在摄像机场景内出现的目标。
智慧云是指基于云服务对一系列要素进行管理,实现云端管理的高效进行。
智慧城市(Smart City)是指利用各种信息技术或创新概念,将城市的系统和服务打通、集成,以提升资源运用的效率,优化城市管理和服务,以及改善市民生活质量。
城市治理是指为了谋求城市经湾、社会、生熊等方面的可持续发晨,对城市中的资本、土地、劳动力、技术、信息、知识等生产要素进行整合,来实现整体地域的协调发晨。
智慧城管是新一代信息技术支撑、知识社会创新环境下的城市管理新模式,通过新一代信息技术支撑实现全面透彻感知、宽带泛在互联、智能融合应用,推动以用户创新、开放创新、大众创新、协同创新为特征的以人为本的可持续创新。智慧城管是智慧城市的重要组成部分。
下面结合附图描述本公开实施例的目标行为识别方法、装置、系统、终端、电子设备和介质。
图1是根据本公开第一实施例的目标行为识别方法的流程示意图。
如图1所示,本公开实施例的目标行为识别方法具体可包括以下步骤:
S101,对采集的视频流进行抽帧,以获取N个目标图像帧,并对目标图像帧进行行为识别,以获取目标图像帧上的行为检测框。
可选的,本公开实施例的目标行为识别方法的执行主体可为本公开实施例提供的目标行为识别装置,该目标行为识别装置可为具有数据信息处理能力的硬件设备和/或驱动该硬件设备工作所需必要的软件,本公开中可以称为多租户管理服务。可选的,执行主体可包括工作站、服务器,计算机、用户终端及其他设备。其中,用户终端包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端等。需要说明的是,本公开具体可应用于智能云、智慧城市、城市治理和智能城管场景下,本公开以违章行为的识别和治理为例进行描述,但并不构成对应用场景的限定。
本领域人员可以理解的是,在进行城市治理过程中的违章治理场景中,由于违章行为极为复杂,例如跨店经营、无照经营游商、乱堆物堆料、沿街晾晒、暴露垃圾、积存垃圾渣土、垃圾满溢、打包垃圾、生活杂物、露天餐饮、占道经营、户外广告等,导致城市管理者响应效率低下,无法满足高效管理的城市治理需求。
相关技术中为了解决上述提到的问题,通过摄像头进行监测处理实现违章行为的识别,但是大多基于单帧图片直接输出相应的目标行为识别结果,无法有效识别实际场景中复杂的违章内容,识别结果的准确度一般,使得识别效果并不理想。
基于此,本公开实施例的目标行为识别方法,提出了对由采集的视频流抽帧得到的目标图像帧进行行为识别以获取行为检测框并进行聚类处理得到聚类簇,基于图像帧上的感兴趣区域和聚类簇中包括的行为检测框确定目标行为检测框,能够提高识别结果的准确度,从而增强识别效果。
在本公开实施例中,视频流为采集的待进行抽帧的视频,目标图像帧为视频流中抽取的N帧图像,N为正整数,目标图像帧上的行为检测框可以为多个,对采集的视频流进行抽帧获取N个目标图像帧,并对目标图像帧进行行为识别,以获取目标图像帧上的行为检测框,并进行后续处理。需要说明的是,在对输入的视频流抽帧之前,需要对视频流进行解码。可选地,视频流可以通过摄像头获取,本公开对此不作过多限定。
S102,对行为检测框进行聚类处理,获取M个聚类簇。
在本公开实施例中,M均为正整数,对步骤S101获取的目标图像帧上的行为检测框进行聚类处理,可获取M个聚类簇。可选地,聚类处理的方法可以为K-Means(K均值聚类算法),具体以IoU(Intersection over Union,交并比)作为度量方法或者特征来实现。
S103,获取图像帧上的感兴趣区域,并基于感兴趣区域和聚类簇中包括的行为检测框,确定目标行为检测框。
在本公开实施例中,感兴趣区域即对目标行为进行识别的关注区域,目标行为检测框即包括目标行为的行为检测框,对图像帧上的感兴趣区域进行获取,并基于图像帧上的感兴趣区域和聚类簇中包括的行为检测框,生成告警信息。需要说明的是,感兴趣区域表示只关注此区域内的目标行为,可选地,感兴趣区域的形状可以是多边形。
综上,本公开实施例的目标行为识别方法,对采集的视频流进行抽帧,以获取N个目标图像帧,并对目标图像帧进行行为识别,以获取目标图像帧上的行为检测框,对行为检测框进行聚类处理,获取M个聚类簇,获取图像帧上的感兴趣区域,并基于感兴趣区域和聚类簇中包括的行为检测框,确定目标行为检测框。本公开的目标行为识别方法,通过对由采集的视频流抽帧得到的目标图像帧进行行为识别以获取行为检测框并进行聚类处理得到聚类簇,基于图像帧上的感兴趣区域和聚类簇中包括的行为检测框确定目标行为检测框,提高了识别结果的准确度,增强了识别效果。
图2是根据本公开第二实施例的目标行为识别方法的流程示意图。
如图2所示,在图1所示实施例的基础上,本公开实施例的目标行为识别方法具体可包括以下步骤:
S201,对视频流进行间隔或连续的抽帧,以获取N个源图像帧。
本公开的实施例中,对视频流进行间隔或连续的抽帧,以获取N个源图像帧。可选地,如图3所示,以N为6即获取6个源图像帧为例,在对视频流进行间隔抽帧时,可以设置一个上报间隔,例如60s,表示每隔60s上报一次源图像帧数据,同时还可以设置一个抽帧数量,例如10个,表示每次上报10个源图像帧,最后还可以设置一个抽帧间隔,例如40ms,表示每隔40ms抽取一个源图像帧,即每间隔60s对采集的视频流进行一次抽帧任务,每间隔40ms抽取一个源图像帧,累计10个源图像帧后上报数据。可选地,在对视频流进行连续抽帧时,可以设置时间间隔和特定数量,表示每隔一段时间间隔后,定时上传特定数量的源图像帧。例如设置时间间隔为1s,特定数量为10,表示每间隔1s上传1个源图像帧。需要说明的是,对视频流进行间隔抽帧的效率比连续抽帧的效率更高。
S202,对N个源图像帧进行预处理,得到预处理后的N个目标图像帧。
本公开的实施例中,在获取到源图像帧后,需要对输入的源图像帧进行预处理,对步骤S201获取的N个源图像帧进行预处理,可得到预处理后的N个目标图像帧。需要说明的是,本公开对源图像帧的预处理方式不作过多限定,可根据实际情况进行设置。
作为一种可能的实施方式,可以对N个源图像帧进行缩放,以得到缩放至目标尺寸的N个第一图像帧,对N个第一图像帧的像素值进行归一化,并减去像素值的均值,得到N个第二图像帧,获取N个第二图像帧的像素值的方差,并将N个第二图像帧的像素值除以方差,得到N个目标图像帧。可选地,目标尺寸可以为600*600,像素值的均值可以为0.485、0.456、0.406等,像素值的方差可以为0.229,0.224,0.225等,归一化可以为将第一图像帧的像素值除以255来实现归一化处理。需要说明的是,获取的目标图像帧在0-1之间,以保证可以顺利输入至卷积神经网络实现后续的目标行为识别。
S203,对目标图像帧进行行为识别,以获取目标图像帧上的行为检测框。
本公开的实施例中,对步骤S202得到的预处理后的N个目标图像帧进行行为识别,以获取每个目标图像帧上的行为检测框。例如,如图4所示,继续上述示例,对目标图像帧1进行行为识别得到行为检测框1,对目标图像帧2进行行为识别得到行为检测框1和行为检测框2,其他目标图像帧同此,不再赘述。
可选地,可以通过目标行为识别模型对目标图像帧进行行为识别,该目标行为识别模型可基于Fast R-CNN、RetinaNet、PP-YOLO等卷积神经网络的框架,卷积神经网络的输入需要在0-1之间。
S204,对行为检测框进行聚类处理,获取M个聚类簇。
需要说明的是,对行为检测框进行聚类处理获取M个聚类簇,例如,如图5所示,继续上述示例,对6个目标图像帧的行为检测框进行聚类处理,可得到3个聚类簇,聚类簇1包括6个行为检测框1,聚类簇2包括3个行为检测框2,聚类簇3包括1个行为检测框3。本实施例中的步骤S204与上述实施例中的步骤S102中的部分相同,可参考相关描述。
S205,获取图像帧上的感兴趣区域。
本公开的实施例中,对步骤S202的预处理后的N个目标图像帧上的感兴趣区域进行获取,以进行后续处理。
上述实施例中步骤S103中的“基于感兴趣区域和聚类簇中包括的行为检测框,确定目标行为检测框”具体可包括以下步骤S206-S207:
S206,从聚类簇中的候选行为检测框中,确定出候选行为检测框。
本公开的实施例中,从步骤S204获取的M个聚类簇中的行为检测框可确定出对应的候选行为检测框。需要说明的是,本公开对确定候选行为检测框的具体方式不作过多限定,可根据实际情况进行设定。
作为一种可能的实施方式,可以获取每个聚类簇中包括的候选行为检测框的数量,并基于数量从M个聚类簇中筛选出预告警聚类簇,从预告警聚类簇中识别出时间戳最近的候选行为检测框,作为候选行为检测框。其中,时间戳最近的候选行为检测框指最新的一个目标图像帧的候选行为检测框。可选地,可以预先设定一个数量阈值,将M个聚类簇中的行为检测框的数量和数量阈值进行比较,若聚类簇中行为检测框的数量大于数量阈值,则该对应的聚类簇即预告警聚类簇,否则,重新循环所有聚类簇,即重新执行步骤S206。例如,在N为6即有6个目标图像帧的情况下,可以将数量阈值设置为3,当聚类簇中的行为检测框大于3时,该聚类簇即为预告警聚类簇,如图5所示,聚类簇1的行为检测框的数量为6个,大于3,则该聚类簇1为预告警聚类簇,聚类簇1包括的6个行为检测框1为候选行为检测框,6个行为检测框1中时间戳最近的检测框则为候选行为检测框。
S207,确定与感兴趣区域存在区域重叠的候选行为检测框为目标行为检测框。
本公开的实施例中,判断步骤S206确定出的候选行为检测框与步骤S206获取的感兴趣区域是否存在区域重叠,若存在区域重叠,则确定候选行为检测框为目标行为检测框,否则不确定候选行为检测框为目标行为检测框,并重新循环所有聚类簇,即重新执行步骤S206。需要说明的是,本公开对生成告警信息的具体方式不作过多限定,可根据实际情况进行设置。
S208,基于目标行为检测框的位置信息和感兴趣区域的位置信息,获取重叠区域的面积。
本公开的实施例中,基于步骤S207确定的目标行为检测框的位置信息和步骤S205获取的感兴趣区域的位置信息,对重叠区域的面积进行获取,以进行后续处理。
S209,响应于重叠区域的面积大于设定阈值,生成告警信息。
本公开的实施例中,对步骤S208获取重叠区域的面积进行判断,若重叠区域的面积大于设定阈值,则生成告警信息,若重叠区域的面积小于或者等于设定阈值,则不生成告警信息。需要说明的是,设定阈值为预先设定好的面积阈值,本公开对此不作过多限定,可根据实际情况进行设置。
综上,本公开实施例的目标行为识别方法,对视频流进行间隔或连续的抽帧,以获取N个源图像帧,对N个源图像帧进行预处理,得到预处理后的N个目标图像帧,对目标图像帧进行行为识别,以获取目标图像帧上的行为检测框,对行为检测框进行聚类处理,获取M个聚类簇,获取图像帧上的感兴趣区域,从聚类簇中的候选行为检测框中,确定出候选行为检测框,确定与感兴趣区域存在区域重叠的候选行为检测框为目标行为检测框,基于目标行为检测框的位置信息和感兴趣区域的位置信息,获取重叠区域的面积,响应于重叠区域的面积大于设定阈值,生成告警信息。本公开的目标行为识别方法,通过对由采集的视频流抽帧得到的目标图像帧进行行为识别以获取行为检测框并进行聚类处理得到聚类簇,基于图像帧上的感兴趣区域和聚类簇中包括的行为检测框确定目标行为检测框,提高了识别结果的准确度,增强了识别效果。同时,通过对视频流进行间隔或连续的抽帧,提高了识别效率,并通过对目标检测框和感兴趣区域的重叠区域的判断,进一步提高了识别结果的准确度,增强了识别效果,此外,通过生成告警信息,促进了目标行为的解决。
进一步的,如图6所示,在上述实施例的基础上,对生成告警信息的过程进行解释说明,包含以下步骤:
S601,对感兴趣区域进行目标检测,以获取感兴趣区域内的实体目标。
本公开的实施例中,对感兴趣区域进行目标检测,从而获取对应的感兴趣区域内的实体目标,以进行后续处理。需要说明的是,感兴趣区域绑定有实体目标,例如,商户、个人主体等,通过这些实体目标可以用来确认目标行为发生的主体。
S602,获取实体目标的联系信息,并基于联系信息,向实体目标发送告警信息。
本公开的实施例中,对步骤S601获取的感兴趣区域内的实体目标中的联系信息进行获取,并根据获取的联系信息,向联系信息对应的实体目标发送相应的告警信息。可选地,可以通过短信发送告警信息。
由此,通过对感兴趣区域进行目标检测来获取实体目标的联系信息,可以确定目标行为发生的主体,丰富了识别结果,进一步提高了识别结果的准确度,增强了识别效果。
进一步的,如图7所示,在上述实施例的基础上,向实体目标发送告警信息之后,还包含以下步骤:
S701,基于视频流的采集位置,获取采集位置所隶属的网格区域。
本公开的实施例中,基于视频流的采集位置,对视频流的采集位置所隶属的网格区域进行获取,以进行后续处理。
S702,对后续采集的视频流继续进行行为识别,以获取后续视频流中后续图像帧上的行为检测框。
本公开的实施例中,对后续采集的视频流继续进行行为识别,以获取后续视频流中后续图像帧上的行为检测框。
S703,响应于后续图像帧上的行为检测框中存在目标行为检测框。
本公开的实施例中,对步骤S702获取的后续图像帧上的行为检测框进行判断,若行为检测框中存在目标行为检测框,则表示该视频流的采集位置所隶属的网格区域整改不到位属于同类目标行为频发区域,则向网格区域对应的管理服务端发送提醒信息,以实现对该网格区域的重点管理。
由此,通过向网格区域对应的管理服务端发送提醒信息,实现了对目标行为频发区域的重点管理,有助于目标行为数量的减少。
图8是根据本公开第一实施例的目标行为识别装置的框图。
如图8所示,本公开实施例的目标行为识别装置800,包括:抽帧模块801、聚类模块802和确定模块803。
抽帧模块801,用于对采集的视频流进行抽帧,以获取N个目标图像帧,并对目标图像帧进行行为识别,以获取目标图像帧上的行为检测框,其中,N为正整数。
聚类模块802,用于对行为检测框进行聚类处理,获取M个聚类簇,其中,M均为正整数。
确定模块803,用于获取图像帧上的感兴趣区域,并基于感兴趣区域和聚类簇中包括的行为检测框,确定目标行为检测框。
需要说明的是,上述对目标行为识别方法实施例的解释说明,也适用于本公开实施例的目标行为识别装置,具体过程此处不再赘述。
综上,本公开实施例的目标行为识别装置,对采集的视频流进行抽帧,以获取N个目标图像帧,并对目标图像帧进行行为识别,以获取目标图像帧上的行为检测框,对行为检测框进行聚类处理,获取M个聚类簇,获取图像帧上的感兴趣区域,并基于感兴趣区域和聚类簇中包括的行为检测框,确定目标行为检测框。本公开的目标行为识别装置,通过对由采集的视频流抽帧得到的目标图像帧进行行为识别以获取行为检测框并进行聚类处理得到聚类簇,基于图像帧上的感兴趣区域和聚类簇中包括的行为检测框确定目标行为检测框,提高了识别结果的准确度,增强了识别效果。
图9是根据本公开第二实施例的目标行为识别装置的框图。
如图9所示,本公开实施例的目标行为识别装置900,包括:抽帧模块901、聚类模块902和确定模块903。
其中,抽帧模块901与上一实施例中的抽帧模块801具有相同的结构和功能,聚类模块902与上一实施例中的聚类模块802具有相同的结构和功能,确定模块903与上一实施例中的确定模块803具有相同的结构和功能。
进一步的,确定模块903,进一步用于:从聚类簇中的候选行为检测框中,确定出候选行为检测框;确定与感兴趣区域存在区域重叠的候选行为检测框为目标行为检测框。
进一步的,确定模块903,进一步用于:获取每个聚类簇中包括的候选行为检测框的数量,并基于数量从M个聚类簇中筛选出预告警聚类簇;从预告警聚类簇中识别出时间戳最近的候选行为检测框,作为候选行为检测框。
进一步的,目标行为识别装置900,还包括:第一获取模块904,用于基于目标行为检测框的位置信息和感兴趣区域的位置信息,获取重叠区域的面积;生成模块905,用于响应于重叠区域的面积大于设定阈值,生成告警信息。
进一步的,生成模块905,进一步用于:对感兴趣区域进行目标检测,以获取感兴趣区域内的实体目标;获取实体目标的联系信息,并基于联系信息,向实体目标发送告警信息。
进一步的,抽帧模块901,进一步用于:对视频流进行间隔或连续的抽帧,以获取N个源图像帧;对N个源图像帧进行预处理,得到预处理后的N个目标图像帧。
进一步的,抽帧模块901,进一步用于:对N个源图像帧进行缩放,以得到缩放至目标尺寸的N个第一图像帧;对N个第一图像帧的像素值进行归一化,并减去像素值的均值,得到N个第二图像帧;获取N个第二图像帧的像素值的方差,并将N个第二图像帧的像素值除以方差,得到N个目标图像帧。
进一步的,目标行为识别装置900,还包括:第二获取模块,用于基于视频流的采集位置,获取采集位置所隶属的网格区域;第三获取模块,用于对后续采集的视频流继续进行行为识别,以获取后续视频流中后续图像帧上的行为检测框;发送模块,用于响应于后续图像帧上的行为检测框中存在目标行为检测框,则向网格区域对应的管理服务端发送提醒信息。
需要说明的是,上述对目标行为识别方法实施例的解释说明,也适用于本公开实施例的目标行为识别装置,具体过程此处不再赘述。
综上,本公开实施例的目标行为识别装置,对视频流进行间隔或连续的抽帧,以获取N个源图像帧,对N个源图像帧进行预处理,得到预处理后的N个目标图像帧,对目标图像帧进行行为识别,以获取目标图像帧上的行为检测框,对行为检测框进行聚类处理,获取M个聚类簇,获取图像帧上的感兴趣区域,从聚类簇中的候选行为检测框中,确定出候选行为检测框,确定与感兴趣区域存在区域重叠的候选行为检测框为目标行为检测框,基于目标行为检测框的位置信息和感兴趣区域的位置信息,获取重叠区域的面积,响应于重叠区域的面积大于设定阈值,生成告警信息。本公开的目标行为识别装置,通过对由采集的视频流抽帧得到的目标图像帧进行行为识别以获取行为检测框并进行聚类处理得到聚类簇,基于图像帧上的感兴趣区域和聚类簇中包括的行为检测框确定目标行为检测框,提高了识别结果的准确度,增强了识别效果。同时,通过对视频流进行间隔或连续的抽帧,提高了识别效率,并通过对目标检测框和感兴趣区域的重叠区域的判断,进一步提高了识别结果的准确度,增强了识别效果,此外,通过生成告警信息,促进了目标行为的解决。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,电子设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储电子设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
电子设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许电子设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如图1至图7所示的目标行为识别方法。例如,在一些实施例中,目标行为识别方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到电子设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的目标行为识别方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行目标行为识别方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程目标行为识别装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网以及区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
根据本公开的实施例,本公开还提供了一种计算机程序产品,包括计算机程序,其中,计算机程序在被处理器执行时实现根据本公开上述实施例所示的目标行为识别方法的步骤。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (16)
1.一种目标行为识别方法,包括:
对采集的视频流进行抽帧,以获取N个目标图像帧,并对所述目标图像帧进行行为识别,以获取所述目标图像帧上的行为检测框,其中,所述N为正整数;
对所述行为检测框进行聚类处理,获取M个聚类簇,其中,所述M均为正整数;
获取所述图像帧上的感兴趣区域,并基于所述感兴趣区域和所述聚类簇中包括的行为检测框,确定目标行为检测框,所述感兴趣区域是指对目标行为进行识别的关注区域,所述目标行为检测框是指包括目标行为的行为检测框;
其中,所述基于所述感兴趣区域和所述聚类簇中包括的行为检测框,确定目标行为检测框包括:
从所述聚类簇中的行为检测框中,确定出候选行为检测框;
确定与所述感兴趣区域存在区域重叠的候选行为检测框为所述目标行为检测框。
2.根据权利要求1所述的方法,其中,所述从所述聚类簇中的行为检测框中,确定出候选行为检测框,包括:
获取每个所述聚类簇中包括的候选行为检测框的数量,并基于所述数量从所述M个聚类簇中筛选出预告警聚类簇;
从所述预告警聚类簇中识别出时间戳最近的候选行为检测框,作为所述候选行为检测框。
3.根据权利要求1或2所述的方法,其中,所述确定目标行为检测框之后,还包括:
基于所述目标行为检测框的位置信息和所述感兴趣区域的位置信息,获取重叠区域的面积;
响应于所述重叠区域的面积大于设定阈值,生成告警信息。
4.根据权利要求3所述的方法,其中,所述生成所述告警信息,包括:
对所述感兴趣区域进行目标检测,以获取所述感兴趣区域内的实体目标;
获取所述实体目标的联系信息,并基于所述联系信息,向所述实体目标发送所述告警信息。
5.根据权利要求1-2中任一项所述的方法,其中,所述对采集的视频流进行抽帧,以获取N个目标图像帧,包括:
对所述视频流进行间隔或连续的抽帧,以获取N个源图像帧;
对所述N个源图像帧进行预处理,得到预处理后的所述N个目标图像帧。
6.根据权利要求5所述的方法,其中,所述对所述N个源图像帧进行预处理,得到预处理后的所述N个目标图像帧,包括:
对所述N个源图像帧进行缩放,以得到缩放至目标尺寸的N个第一图像帧;
对所述N个第一图像帧的像素值进行归一化,并减去像素值的均值,得到N个第二图像帧;
获取所述N个第二图像帧的像素值的方差,并将所述N个第二图像帧的像素值除以所述方差,得到所述N个目标图像帧。
7.根据权利要求4所述的方法,其中,所述向所述实体目标发送所述告警信息之后,还包括:
基于所述视频流的采集位置,获取所述采集位置所隶属的网格区域;
对后续视频流继续进行行为识别,以获取所述后续视频流中后续图像帧上的行为检测框;
响应于所述后续图像帧上的行为检测框中存在所述目标行为检测框,则向所述网格区域对应的管理服务端发送提醒信息。
8.一种目标行为识别装置,包括:
抽帧模块,用于对采集的视频流进行抽帧,以获取N个目标图像帧,并对所述目标图像帧进行行为识别,以获取所述目标图像帧上的行为检测框,其中,所述N为正整数;
聚类模块,用于对所述行为检测框进行聚类处理,获取M个聚类簇,其中,所述M均为正整数;
确定模块,用于获取所述图像帧上的感兴趣区域,并基于所述感兴趣区域和所述聚类簇中包括的行为检测框,确定目标行为检测框,所述感兴趣区域是指对目标行为进行识别的关注区域,所述目标行为检测框是指包括目标行为的行为检测框;
其中,所述确定模块,进一步用于:
从所述聚类簇中的行为检测框中,确定出候选行为检测框;
确定与所述感兴趣区域存在区域重叠的候选行为检测框为所述目标行为检测框。
9.根据权利要求8所述的装置,其中,所述确定模块,进一步用于:
获取每个所述聚类簇中包括的候选行为检测框的数量,并基于所述数量从所述M个聚类簇中筛选出预告警聚类簇;
从所述预告警聚类簇中识别出时间戳最近的候选行为检测框,作为所述候选行为检测框。
10.根据权利要求8或9所述的装置,其中,还包括:
第一获取模块,用于确定目标行为检测框之后,基于所述目标行为检测框的位置信息和所述感兴趣区域的位置信息,获取重叠区域的面积;
生成模块,用于响应于所述重叠区域的面积大于设定阈值,生成告警信息。
11.根据权利要求10所述的装置,其中,所述生成模块,进一步用于:
对所述感兴趣区域进行目标检测,以获取所述感兴趣区域内的实体目标;
获取所述实体目标的联系信息,并基于所述联系信息,向所述实体目标发送所述告警信息。
12.根据权利要求8-9中任一项所述的装置,其中,所述抽帧模块,进一步用于:
对所述视频流进行间隔或连续的抽帧,以获取N个源图像帧;
对所述N个源图像帧进行预处理,得到预处理后的所述N个目标图像帧。
13.根据权利要求12所述的装置,其中,所述抽帧模块,进一步用于:
对所述N个源图像帧进行缩放,以得到缩放至目标尺寸的N个第一图像帧;
对所述N个第一图像帧的像素值进行归一化,并减去像素值的均值,得到N个第二图像帧;
获取所述N个第二图像帧的像素值的方差,并将所述N个第二图像帧的像素值除以所述方差,得到所述N个目标图像帧。
14.根据权利要求11所述的装置,其中,还包括:
第二获取模块,用于基于所述视频流的采集位置,获取所述采集位置所隶属的网格区域;
第三获取模块,用于对后续采集的视频流继续进行行为识别,以获取所述后续视频流中后续图像帧上的行为检测框;
发送模块,用于响应于所述后续图像帧上的行为检测框中存在所述目标行为检测框,则向所述网格区域对应的管理服务端发送提醒信息。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210688810.5A CN114943936B (zh) | 2022-06-17 | 2022-06-17 | 目标行为识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210688810.5A CN114943936B (zh) | 2022-06-17 | 2022-06-17 | 目标行为识别方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114943936A CN114943936A (zh) | 2022-08-26 |
CN114943936B true CN114943936B (zh) | 2023-06-20 |
Family
ID=82910239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210688810.5A Active CN114943936B (zh) | 2022-06-17 | 2022-06-17 | 目标行为识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114943936B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116614631B (zh) * | 2023-05-17 | 2024-03-19 | 北京百度网讯科技有限公司 | 视频处理方法、装置、设备及介质 |
CN116363761B (zh) * | 2023-06-01 | 2023-08-18 | 深圳海清智元科技股份有限公司 | 基于图像的行为识别方法、装置及电子设备 |
CN116821721B (zh) * | 2023-07-03 | 2024-04-02 | 上海金润联汇数字科技有限公司 | 一种跨城网约车的识别方法、装置、设备及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488794A (zh) * | 2015-11-26 | 2016-04-13 | 中山大学 | 一种基于空间定位和聚类的动作预测方法及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6774908B2 (en) * | 2000-10-03 | 2004-08-10 | Creative Frontier Inc. | System and method for tracking an object in a video and linking information thereto |
CN109961014A (zh) * | 2019-02-25 | 2019-07-02 | 中国科学院重庆绿色智能技术研究院 | 一种煤矿输送带危险区域监测方法及系统 |
CN112906428B (zh) * | 2019-11-19 | 2023-04-25 | 英业达科技有限公司 | 影像侦测区域取得方法及空间使用情况的判定方法 |
CN112784738B (zh) * | 2021-01-21 | 2023-09-19 | 上海云从汇临人工智能科技有限公司 | 运动目标检测告警方法、装置以及计算机可读存储介质 |
CN112686226A (zh) * | 2021-03-12 | 2021-04-20 | 深圳市安软科技股份有限公司 | 一种基于网格化管理的大数据管理方法、装置及电子设备 |
CN113255606A (zh) * | 2021-06-30 | 2021-08-13 | 深圳市商汤科技有限公司 | 行为识别方法、装置、计算机设备及存储介质 |
CN113965772B (zh) * | 2021-10-29 | 2024-05-10 | 北京百度网讯科技有限公司 | 直播视频处理方法、装置、电子设备和存储介质 |
-
2022
- 2022-06-17 CN CN202210688810.5A patent/CN114943936B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488794A (zh) * | 2015-11-26 | 2016-04-13 | 中山大学 | 一种基于空间定位和聚类的动作预测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114943936A (zh) | 2022-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114943936B (zh) | 目标行为识别方法、装置、电子设备及存储介质 | |
CN108446698B (zh) | 在图像中检测文本的方法、装置、介质及电子设备 | |
US20230267735A1 (en) | Method for structuring pedestrian information, device, apparatus and storage medium | |
CN112966599B (zh) | 关键点识别模型的训练方法、关键点识别方法及装置 | |
CN110942071A (zh) | 一种基于车牌分类和lstm的车牌识别方法 | |
CN113299073B (zh) | 识别车辆违章停车的方法、装置、设备和存储介质 | |
WO2019214321A1 (zh) | 车辆损伤识别的处理方法、处理设备、客户端及服务器 | |
CN110991310A (zh) | 人像检测方法、装置、电子设备及计算机可读介质 | |
CN115620081B (zh) | 一种目标检测模型的训练方法及目标检测方法、装置 | |
CN113901911A (zh) | 图像识别、模型训练方法、装置、电子设备及存储介质 | |
CN115240035A (zh) | 半监督目标检测模型训练方法、装置、设备以及存储介质 | |
CN113688839B (zh) | 视频处理方法及装置、电子设备、计算机可读存储介质 | |
CN117315406B (zh) | 一种样本图像处理方法、装置及设备 | |
CN113569912A (zh) | 车辆识别方法、装置、电子设备及存储介质 | |
CN115035605B (zh) | 基于深度学习的动作识别方法、装置、设备及存储介质 | |
CN112183431A (zh) | 实时行人数量统计方法、装置、相机和服务器 | |
CN113392676A (zh) | 一种多目标追踪的行为识别方法和装置 | |
CN114157833A (zh) | 一种智慧城市的监控数据传输方法及系统 | |
CN114138548A (zh) | 一种智慧城市的监控数据备份方法及系统 | |
CN114445751A (zh) | 视频关键帧图像轮廓特征的提取方法和装置 | |
CN111311603A (zh) | 用于输出目标物体数目信息的方法和装置 | |
CN113344064A (zh) | 事件处理方法和装置 | |
CN114764902A (zh) | 一种行为识别方法、装置和存储介质 | |
CN110855882A (zh) | 拍摄处理方法及装置、存储介质和电子设备 | |
CN112700657B (zh) | 用于生成检测信息的方法、装置、路侧设备和云控平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |