CN114912536A - 一种基于雷达和双光电的目标识别方法 - Google Patents
一种基于雷达和双光电的目标识别方法 Download PDFInfo
- Publication number
- CN114912536A CN114912536A CN202210580189.0A CN202210580189A CN114912536A CN 114912536 A CN114912536 A CN 114912536A CN 202210580189 A CN202210580189 A CN 202210580189A CN 114912536 A CN114912536 A CN 114912536A
- Authority
- CN
- China
- Prior art keywords
- target
- photoelectric
- tracking
- photoelectricity
- double
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明涉及一种基于雷达和双光电的目标识别方法,包括步骤:数据融合模块根据雷达搜索到的目标信息控制双光电系统转动至目标所在方位,同时确定当前昼夜情况,根据当前昼夜情况确定双光电系统中的其中一个光电设备为主跟踪光电,另一个光电设备为副跟踪光电;将主跟踪光电和副跟踪光电获取的目标图像融合形成视频帧序列后传输到数据融合模块;数据融合模块检测视频帧序列中的目标,并将检测到的目标与数据库进行对比,以确定目标类别;根据目标类别判断是否需要对该目标进行跟踪。本发明能更加适用于全方位、全天候的目标入侵检测场景,更快速的对目标作出识别、跟踪反应。
Description
技术领域
本发明涉及目标识别跟踪技术领域,特别涉及一种基于雷达和双光电的目标识别方法。
背景技术
随着人工智能技术的不断完善与发展,智能识别技术在智能安防领域得到兴起于应用,现在该技术在智能安防领域已经是不可或缺的一部分。当检测目标出现时,可通过人工智能技术,使检测设备发现、识别和跟踪检测目标,以达到解放警戒人员的双眼,提高对入侵目标的识别速度和准确率的目的。如何对入侵目标进行发现、精确识别和稳定跟踪成为智能安防领域的重要课题,有着巨大的应用前景和经济价值。
当前现有的目标检测算法多使用的是通过光电设备获取目标图像,并通过分析图像的手段确定视野中是否存在该目标,若存在目标则定位当前目标的位置并形成移动轨迹显示在交互界面,以此完成对目标的检测识别以及追踪任务。该方法要达到较高的识别度,需要在警戒过程假设多个不同角度的光电设备对监测环境的不同高度、不同方位、不同距离的图像进行捕获与跟踪;或使用单个光电设备在不同方位、不同距离进行巡航图像捕获,以达到发现和跟踪目标,提高识别准确度的目的。
但采用多个光电设备分别对不同区域进行同时监控的方法是需要多个不同种类、不同位置的光电设备,存在成本高、维护困难等缺点,同时很难实现单一画面对目标的实时跟踪。采用单个设备巡航拍摄的方式,使用一个光电设备对该区域的图像信息进行采集警戒,并通过图像分析出目标的方法,该方法存在区域巡航的时间较长,无法同时对该区域的图像进行采集,可能会出现漏掉目标,出现监控死角,导致目标可利用监控阴影面躲避监测,影响识别效率。
发明内容
本发明的目的在于改善现有技术中所存在的不足,提供一种基于雷达和双光电的目标识别方法,能更加适用于全方位、全天候的目标入侵检测场景,更快速的对目标作出识别、跟踪反应。
为了实现上述发明目的,本发明实施例提供了以下技术方案:
一种基于雷达和双光电的目标识别方法,包括以下步骤:
步骤S1,数据融合模块根据雷达搜索到的目标信息控制双光电系统转动至目标所在方位,同时确定当前昼夜情况,根据当前昼夜情况确定双光电系统中的其中一个光电设备为主跟踪光电,另一个光电设备为副跟踪光电;
步骤S2,将主跟踪光电和副跟踪光电获取的目标图像融合形成视频帧序列后传输到数据融合模块;
步骤S3:数据融合模块检测视频帧序列中的目标,并将检测到的目标与数据库进行对比,以确定目标类别;根据目标类别判断是否需要对该目标进行跟踪。
更进一步地,所述同时确定当前昼夜情况,根据当前昼夜情况确定双光电系统中的其中一个光电设备为主跟踪光电,另一个光电设备为副跟踪光电的步骤,包括:
数据融合模块根据双光电系统拍摄的视频图像随机抽帧得到原始图像,对原始图像进行亮度中值计算,若原始图像的亮度值大于预设中值,则判断当前为白昼,否则为夜晚;
当前为白昼时,确定双光电系统中微光光电设备为主跟踪光电,红外光电设备为副跟踪光电;当前为夜晚时,确定双光电系统中红外光电设备为主跟踪光电,微光光电设备为副跟踪光电。
更进一步地,所述将主跟踪光电和副跟踪光电获取的目标图像融合形成视频帧序列后传输到数据融合模块的步骤,包括:
调整主跟踪光电的倍率到距离目标一半的位置,调整副跟踪光电的倍率到目标的位置,使得主跟踪光电捕获小尺寸目标图像,副跟踪光电捕获大尺寸目标图像,并随机抽取一帧小尺寸目标图像和一帧大尺寸目标图像融合形成视频帧序列后传输到数据融合模块。
更进一步地,所述根据目标类别判断是否需要对该目标进行跟踪的步骤,包括:
所述数据库中每种目标类别都预设了其对应的安全距离、目标大小、目标速度的参数范围,通过对比获得目标类别后,获取该目标的距离、大小、速度,与预设的安全距离、目标大小、目标速度作比较,若任一参数超出相应的参数范围,则对该目标进行跟踪,否则不跟踪。
更进一步地,还包括步骤:步骤S4,在跟踪目标时,计算目标在主跟踪光电捕获的小尺寸目标图像中的偏移位置,和副跟踪光电捕获的大尺寸目标图像中的偏移像素点,来判断目标是否发生移动。
与现有技术相比,本发明的有益效果:
本发明通过雷达代替传统光电拍摄图像的方式对目标进行检测,雷达能够对周围环境进行覆盖式的扫描,具有作用范围广、无死角、目标位置感知精确高的优势。双光电系统根据精确的目标位置和距离进行边倍和调焦后对目标图像进行捕获,可以有效保证图像中的目标信息准确度,提升目标检测的精确度和可信度。双光电系统为微光光电设备和红外光电设备搭配,可以确保全天候对目标进行识别跟踪。通过切换主、副跟踪光电捕获的不听视野、不同距离的图像,可以更加精准的对目标进行检测、识别和跟踪,进一步提高目标识别跟踪的精度。主跟踪光电捕获的图像宽视野,可以防止目标速度过快时溢出视野;副跟踪光电捕获的目标尺寸大,可以更精准检测和识别目标类别,两种尺寸的识别结果融合印证和关联,使识别结果更加精确。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明方法流程图;
图2为本发明双光电系统模块框图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性,或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
实施例1:
本发明通过下述技术方案实现,如图1所示,一种基于雷达和双光电的目标识别方法,包括步骤:
步骤S1,数据融合模块根据雷达搜索到的目标信息控制双光电系统转动至目标所在方位,同时确定当前昼夜情况,根据当前昼夜情况确定双光电系统中的其中一个光电设备为主跟踪光电,另一个光电设备为副跟踪光电。
首先雷达搜索周围目标信息,并将搜索到的目标信息发送至数据融合模块,数据融合模块控制双光电系统转动至目标所在方位,同时确定当前昼夜情况。数据融合模块根据双光电系统拍摄的视频图像随机抽帧得到原始图像,对原始图像进行亮度中值计算,若原始图像的亮度值大于预设中值,则判断当前为白昼,否则为夜晚。
选择亮度中值计算可以克服线性滤波带来的图像细节的模糊问题,特别是针对被椒盐噪声污染的图像。比如原始图像的频率为F={1,2,3},其中中值为2,如果将预设中值设置为1.5,则判断当前环境为白昼;如果将预设中值设置为3,则判断当前环境为夜晚。
请参见图2,所述双光电系统包括微光光电设备、红外光电设备。当前为白昼时,确定双光电系统中微光光电设备为主跟踪光电,红外光电设备为副跟踪光电;当前为夜晚时,确定双光电系统中红外光电设备为主跟踪光电,微光光电设备为副跟踪光电。
步骤S2,将主跟踪光电和副跟踪光电获取的目标图像融合形成视频帧序列后传输到数据融合模块。
经过多次试验调试,调整主跟踪光电的倍率到距离目标一半的位置,调整副跟踪光电的倍率到目标的位置,使得主跟踪光电捕获小尺寸目标图像(宽视野),副跟踪光电捕获大尺寸目标图像(近距离),并随机抽取一帧小尺寸目标图像和一帧大尺寸目标图像融合形成视频帧序列后传输到数据融合模块。
根据凸透镜成像公式:1/u+1/v=1/f,其中u是物距,v是像距,f是焦距。由雷达获取目标物距,调整主跟踪光电的倍率到距离目标一半的位置,得到像距后根据成像公式得到焦距值,调整主光电焦距使图像清晰。同时调整副跟踪光电的倍率到目标的位置,得到像距后根据成像公式得到焦距值,调整副光电焦距使图像清晰。
根据调整结果得到主跟踪光电捕获的小尺寸目标图像(宽视野),副跟踪光电捕获的大尺寸目标图像(近距离),随机抽取一帧小尺寸目标图像和一帧大尺寸目标图像融合形成视频帧序列后传输到数据融合模块。
步骤S3:数据融合模块检测视频帧序列中的目标,并将检测到的目标与数据库进行对比,以确定目标类别;根据目标类别判断是否需要对该目标进行跟踪。
若判断有目标存在,算法会通过比对数据库中的类别,如人、车、无人机、动物等,从而确定目标类别。并且所述数据库中每种目标类别都预设了其对应的安全距离、目标大小、目标速度的参数范围,通过对比获得目标类别后,获取该目标的距离、大小、速度,与预设的安全距离、目标大小、目标速度作比较,若任一参数超出相应的参数范围,则对该目标进行跟踪,否则不跟踪。
基于YOLO图像识别算法将主副光电所拍摄的小尺寸目标图像进行缩放为448x448大小后,将图像分割为S*S(此处可选择7*7)个网格。
将分隔的每个网格目标输入至CNN(卷积神经网络)反向传播算法中进行卷积计算:每个网格都会预测B个边界框和边界框对应的置信值(confidence),边界框预测目标的位置,置信值用来反映这个网格是否有包含目标及边界框的准确性有多高。
式中C表示置信值,Pr(obj)表示边界框含有目标的可能性大小,表示边界框的准确度;当该边界框是背景时(即不包含目标),此时Pr(obj)=0;而当该边界框包含目标时,Pr(obj)=1。边界框的准确度可以用预测框与实际框(ground truth)的IOU(intersection over union,交并比)来表征,记为
每一个边界框由5个预测量组成:x、y、w、h、confidence。其中x、y是边界框中心点相对于对应网格的偏移量比例,并且x、y的取值是0~1之间,也就是说有相对于网格的尺寸做归一化处理。同样,w、h都有经过归一化处理,因此取值都在0~1之间,w和h是边界框相对于整张图片尺寸的比例。confidence代表了预测出来的边界框与数据库的边界框之间的IOU值。
每个网格除了边界框外,还会预测C个条件概率:Pr(classi|Object),该条件概率指的是当网格中存在目标时,目标类别的概率分布。条件概率针对的是每一个网格,而不是每一个边界框,因为每个网格会预测B个边界框。
YOLO图像识别算法会将条件概率和每个边界框的confidence相乘:
其中,Pr(classi|Object)表示条件概率,Pr(Object)表示边界框含有目标的可能性大小,Pr(classi)表示目标归属类别的识别概率。
这样的结果就是针对每一个边界框而言的目标类别概率分布的置信值,该置信值表达了两个信息:一是目标是某个类别的概率,二是预测的边界框离真实的边界框有多远。最终将对比结果的置信值与阀值进行对比,得到类别结果。
步骤S4,在跟踪目标时,计算目标在主跟踪光电捕获的小尺寸目标图像中的偏移位置,和副跟踪光电捕获的大尺寸目标图像中的偏移像素点,来判断目标是否发生移动。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (5)
1.一种基于雷达和双光电的目标识别方法,其特征在于:包括以下步骤:
步骤S1,数据融合模块根据雷达搜索到的目标信息控制双光电系统转动至目标所在方位,同时确定当前昼夜情况,根据当前昼夜情况确定双光电系统中的其中一个光电设备为主跟踪光电,另一个光电设备为副跟踪光电;
步骤S2,将主跟踪光电和副跟踪光电获取的目标图像融合形成视频帧序列后传输到数据融合模块;
步骤S3:数据融合模块检测视频帧序列中的目标,并将检测到的目标与数据库进行对比,以确定目标类别;根据目标类别判断是否需要对该目标进行跟踪。
2.根据权利要求1所述的一种基于雷达和双光电的目标识别方法,其特征在于:所述同时确定当前昼夜情况,根据当前昼夜情况确定双光电系统中的其中一个光电设备为主跟踪光电,另一个光电设备为副跟踪光电的步骤,包括:
数据融合模块根据双光电系统拍摄的视频图像随机抽帧得到原始图像,对原始图像进行亮度中值计算,若原始图像的亮度值大于预设中值,则判断当前为白昼,否则为夜晚;
当前为白昼时,确定双光电系统中微光光电设备为主跟踪光电,红外光电设备为副跟踪光电;当前为夜晚时,确定双光电系统中红外光电设备为主跟踪光电,微光光电设备为副跟踪光电。
3.根据权利要求1所述的一种基于雷达和双光电的目标识别方法,其特征在于:所述将主跟踪光电和副跟踪光电获取的目标图像融合形成视频帧序列后传输到数据融合模块的步骤,包括:
调整主跟踪光电的倍率到距离目标一半的位置,调整副跟踪光电的倍率到目标的位置,使得主跟踪光电捕获小尺寸目标图像,副跟踪光电捕获大尺寸目标图像,并随机抽取一帧小尺寸目标图像和一帧大尺寸目标图像融合形成视频帧序列后传输到数据融合模块。
4.根据权利要求1所述的一种基于雷达和双光电的目标识别方法,其特征在于:所述根据目标类别判断是否需要对该目标进行跟踪的步骤,包括:
所述数据库中每种目标类别都预设了其对应的安全距离、目标大小、目标速度的参数范围,通过对比获得目标类别后,获取该目标的距离、大小、速度,与预设的安全距离、目标大小、目标速度作比较,若任一参数超出相应的参数范围,则对该目标进行跟踪,否则不跟踪。
5.根据权利要求1所述的一种基于雷达和双光电的目标识别方法,其特征在于:还包括步骤:步骤S4,在跟踪目标时,计算目标在主跟踪光电捕获的小尺寸目标图像中的偏移位置,和副跟踪光电捕获的大尺寸目标图像中的偏移像素点,来判断目标是否发生移动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210580189.0A CN114912536A (zh) | 2022-05-26 | 2022-05-26 | 一种基于雷达和双光电的目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210580189.0A CN114912536A (zh) | 2022-05-26 | 2022-05-26 | 一种基于雷达和双光电的目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114912536A true CN114912536A (zh) | 2022-08-16 |
Family
ID=82768985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210580189.0A Pending CN114912536A (zh) | 2022-05-26 | 2022-05-26 | 一种基于雷达和双光电的目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114912536A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115100556A (zh) * | 2022-08-25 | 2022-09-23 | 北京亮亮视野科技有限公司 | 基于图像分割与融合的增强现实的方法、装置及电子设备 |
-
2022
- 2022-05-26 CN CN202210580189.0A patent/CN114912536A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115100556A (zh) * | 2022-08-25 | 2022-09-23 | 北京亮亮视野科技有限公司 | 基于图像分割与融合的增强现实的方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021170030A1 (zh) | 一种用于目标追踪的方法、设备及系统 | |
KR102197946B1 (ko) | 딥러닝 인공지능 기술을 이용한 객체인식 및 카운팅 방법 | |
CN104303193B (zh) | 基于聚类的目标分类 | |
CN107818571A (zh) | 基于深度学习网络和均值漂移的船只自动跟踪方法及系统 | |
Kong et al. | Detecting abandoned objects with a moving camera | |
CN110570454B (zh) | 一种检测异物入侵的方法及装置 | |
CN109920185A (zh) | 一种基于毫米波雷达与视频数据融合检测移动目标的方法 | |
KR102478335B1 (ko) | 채널별 객체 검출 최적화를 위한 영상분석 방법 및 서버장치 | |
KR101788225B1 (ko) | 건설현장 맞춤형 이미지 분석기술을 활용한 중장비/근로자 인식 및 추적 방법 및 시스템 | |
CA2451660A1 (en) | Method for monitoring a moving object and system regarding same | |
KR101515166B1 (ko) | 객체인식 기반의 주차장 이벤트 검지 시스템 | |
CN112541403B (zh) | 一种利用红外摄像头的室内人员跌倒检测方法 | |
CN115083088A (zh) | 铁路周界入侵预警方法 | |
Foresti et al. | Event classification for automatic visual-based surveillance of parking lots | |
CN116846059A (zh) | 一种用于电网巡检和监控的边缘检测系统 | |
CN114912536A (zh) | 一种基于雷达和双光电的目标识别方法 | |
CN114332732A (zh) | 一种基于雷视融合的铁路危情监测方法 | |
Shafie et al. | Smart video surveillance system for vehicle detection and traffic flow control | |
CN113920585A (zh) | 行为识别方法及装置、设备和存储介质 | |
CN106303461A (zh) | 基于视频分析的移动式智能安防装置 | |
CN116798117A (zh) | 一种基于视频理解的矿井下异常动作识别方法 | |
CN115965745A (zh) | 一种基于三级视频感知的无人机动态三维重构系统和方法 | |
CN114708544A (zh) | 一种基于边缘计算的违规行为智能监测头盔及其监测方法 | |
CN110084146B (zh) | 基于遮挡感知自监督学习的行人检测方法及装置 | |
Vujović et al. | Traffic video surveillance in different weather conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |