CN110490168A - 基于目标检测与骨骼点算法的机场迎机人员行为监测方法 - Google Patents
基于目标检测与骨骼点算法的机场迎机人员行为监测方法 Download PDFInfo
- Publication number
- CN110490168A CN110490168A CN201910792840.9A CN201910792840A CN110490168A CN 110490168 A CN110490168 A CN 110490168A CN 201910792840 A CN201910792840 A CN 201910792840A CN 110490168 A CN110490168 A CN 110490168A
- Authority
- CN
- China
- Prior art keywords
- aircraft
- machine
- frame image
- target detection
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于目标检测与骨骼点算法的机场迎机人员行为监测方法,涉及行为监测技术领域。包括以下步骤:获取连续的N帧图像;并识别图像中的飞机和迎机人员;判断飞机状态;统计迎机人员数量,进一步提取迎机人员的关键骨骼点构建关键点向量;对关键点向量进行标准化;训练混合高斯模型,预测标准关键点向量属于不同聚类类别的概率;定义迎机人员的行为类别,对于已经得到的标准关键点向量属于不同聚类类别的概率,取概率最大值对于的行为类别为最终分类结果;根据时间序列判断每个迎机人员的行为是否标准,若不标准,则报警提示。本发明利用目标检测算法和基于关键点的行为识别算法来识别图像中任务的行为,算法准确度高,鲁棒性好。
Description
技术领域
本发明涉及行为监测技术领域,尤其涉及一种基于目标检测与骨骼点算法的机场迎机人员行为监测方法。
背景技术
机场迎机人员的管理是机场地勤管理的一个重要方面,迎机人员主要负责在飞机落地停靠时给予飞机正确的引导,使飞机停靠在规定的位置。地勤部门对迎机人员的管理主要有两个方面:第一,要求飞机落地前必须就位;第二,要求在飞机停靠过程中通过标准的方式进行指引。目前对迎机人员的管理主要通过两种方式实现,分别是人工巡视与视频回放浏览。
随着计算机视觉技术的发展,有人提出使用目标识别方法进行迎机人员的识别,这种方法对于人或飞机等目标检测是否存在具有较好的效果,但对迎机人员的行为区分能力较差。
按照目前的运营管理模式,采取人工巡视的方法,巡视时间与范围都有限,无法做到24小时监测,且需要投入较大的人力,十分费时费力;采用视频浏览的方式则主要为事后纠错,无法及时预警;
同时,由于光照强度、成像角度等差异,当前基于目标检测的方法对迎机人员的行为识别区分能力较差,方法鲁棒性较低。
发明内容
本发明的目的在于提供一种基于目标检测与骨骼点算法的机场迎机人员行为监测方法,利用目标检测算法和基于关键点的行为识别算法来识别图像中任务的行为,算法准确度高,鲁棒性好。
为实现上述目的,本发明提供如下技术方案:
一种基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,包括以下步骤:
S1,获取连续的N帧图像;
S2,对图像按时间顺序进行排序,并识别图像中的飞机和迎机人员;
S3,根据飞机识别结果判断飞机状态,若飞机状态为进入,则进入步骤S4,否则返回步骤S1;
S4,统计迎机人员数量并判断是否为规定人数,若是则提取迎机人员的关键骨骼点构建关键点向量B,否则发出报警提示;
S5,对所述关键点向量B中的关键骨骼点进行标准化,得到标准关键点向量B′;
S6,训练混合高斯模型,预测标准关键点向量B′属于n个不同聚类类别的概率Pgmm;
S7,定义迎机人员的k个行为类别,对于已经得到的标准关键点向量B′属于n个不同聚类类别的概率,采用贝叶斯方法计算其属于k个不同行为类别的概率,取概率最大值对于的行为类别为最终分类结果;
S8,根据时间序列判断每个迎机人员的行为是否标准,若不标准,则报警提示。
进一步的,所述S2中,飞机和迎机人员的识别采用深度学习目标检测算法实现。
进一步的,所述S3中,飞机状态包括无、进入、离开和停止;其判断方法如下:
若从第1帧图像至第N帧图像中均未检测到飞机,则飞机状态为无;
若第1帧图像未检测到飞机,第N帧图像检测到飞机,且第1帧图像到第N帧图像之间,飞机从未检测到向检测到转变,飞机位置发生变动,则飞机状态为进入;
若第1帧图像检测到飞机,第N帧图像未检测到飞机,且第1帧图像到第N帧图像之间,飞机从检测到向未检测到转变,飞机位置发生变动,则飞机状态为离开;
若从第1帧图像至第N帧图像中均检测到飞机且飞机位置未发生变动,则飞机状态为无。
进一步的,所述S4中,关键骨骼点的提取采用openpose算法。
进一步的,关键点向量B包括14个关键骨骼点的坐标,所述14个关键骨骼点依次为脖子、左肩、右肩、臀中、臀左、臀右、左手腕、右手腕、左肘、右肘、左膝、右膝、左脚踝、右脚踝。
进一步的,所述S5中,标准化的具体步骤如下:
S51,以臀中坐标(x4y4)和脖子坐标(x1y1)求缩放因子scale,
其中,L为标准距离;
S52,标准化,
其中,(xi,yi)为标准化前的关键骨骼点的坐标,(x′i,y′i)为标准化后的关键骨骼点的坐标。
进一步的,所述S6中,聚类类别的概率计算如下:
其中,D为标准关键点向量的数据维度,μi,Σi分别为训练所得的第i个高斯模型的均值与方差,pi(B′)为B′属于第i个聚类类别的概率,i=1,2……n;Pgmm=[p1(B′),p2(B′),...,pn(B′)]。
进一步的,所述S7中,贝叶斯方法的具体内容如下:
P=PgmmAT=[p1,p2……pk]
其中,aij为行为类别为i的条件下,聚类类别为j的概率。
进一步的,所述行为类别包括以下五类:双手下垂、双手直举、双手平举、一平一直、其他。
进一步的,所述S8中,迎机人员的行为标准如下:
迎机人员1:整个迎机过程始终保持双手下垂站立姿势;
迎机人员2:整个迎机过程中具备双手下垂、双手直举、双手平举、一平一直四个行为。
与现有技术相比,本发明的有益效果是:本发明利用目标检测算法和基于关键点的行为识别算法来识别图像中任务的行为,具体的,对飞机状态、迎机人员数量、迎机人员行为进行分级检测,不仅降低了整体方法的计算量,同时保证了算法的准确度和鲁棒性。
具体实施方式
下面对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例提供一种基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,包括以下步骤:
S1,从视频流中获取当前帧之前连续的N帧图像;
S2,对所述N帧图像按时间顺序进行排序,并采用深度学习目标检测算法识别图像中的飞机和迎机人员;所述深度学习目标检测算法的步骤如下:
Step1:设计主体网络,主体网络参考残差网络结构设计,视训练数据量的大小选择不同的深度,以避免因为训练数据不足引起的过拟合现象,本发明中选择resnet50作为主体网络;
Step2:设计检测方法。此处的检测方法包括但不限于yolo-v1/v2/v3系列,faster-rcnn系列,ssd系列等;为了兼顾不同尺度目标的信息,才去FPN的结构,即高层大尺度特征与低层小尺度特征做融合,以获得更高分辨率的特征;
Step3:选择训练框架,按照训练框架的要求准备训练数据并训练检测器。此处的训练框架包括但不限于caffe,darknet,tensorflow,pytorch等;
S3,根据飞机识别结果判断飞机状态,若飞机状态为进入,则进入步骤S4,否则返回步骤S1;本实施例定义飞机状态包括无、进入、离开和停止四类;其判断方法如下:
若从第1帧图像至第N帧图像中均未检测到飞机,则飞机状态为无;
若第1帧图像未检测到飞机,第N帧图像检测到飞机,且第1帧图像到第N帧图像之间,飞机从未检测到向检测到转变,飞机位置发生变动,则飞机状态为进入;
若第1帧图像检测到飞机,第N帧图像未检测到飞机,且第1帧图像到第N帧图像之间,飞机从检测到向未检测到转变,飞机位置发生变动,则飞机状态为离开;
若从第1帧图像至第N帧图像中均检测到飞机且飞机位置未发生变动,则飞机状态为无。
当且仅当判断出飞机状态为进入时,再进行步骤S4之后的迎机人员识别,否则直接跳到S1重新获取图像帧进行下一次判断。分级判断大大降低了算法的整体计算量。
S4,统计迎机人员数量并判断是否为规定人数,若是则提取迎机人员的关键骨骼点构建关键点向量B,否则发出报警提示;本实施例中要求迎机人员人数为2人,若图像中识别的迎机人员数量为2,进一步进行迎机人员的行为判断,采用openpose算法提取迎机人员的25个关键骨骼点,依次选取其中的脖子、左肩、右肩、臀中、臀左、臀右、左手腕、右手腕、左肘、右肘、左膝、右膝、左脚踝、右脚踝等14个关键骨骼点,取该14个关键骨骼点所在的图像坐标构建关键点向量B=[(x1,y1),(x2,y2),...,(x14,y14)],其中下标代表关键骨骼点,依次为上述的脖子、左肩、右肩、臀中、臀左、臀右、左手腕、右手腕、左肘、右肘、左膝、右膝、左脚踝、右脚踝14个关键骨骼点;
S5,对所述关键点向量B中的关键骨骼点进行标准化,得到标准关键点向量B′;标准化的具体步骤如下:
S51,以臀中坐标(x4,y4)和脖子坐标(x1,y1)求缩放因子scale,
其中,L为预先设定的标准距离;
S52,标准化,
其中,(xi,yi)为标准化前的关键骨骼点的坐标,(x′i,y′i)为标准化后的关键骨骼点的坐标。
标准化后的坐标以臀中坐标为原点;同时得到标准关键点向量B′=[(x′1,y′1),(x′2,y′2),...,(x′14,y′14)];
S6,训练混合高斯模型(GMM),其训练步骤为:
Step1:设定需要聚类的类别数目n,此处的类别数据具有任意性,可通过实验确定最佳值,本发明给出的n的参考范围是8至10,其中尤以8为最佳;
Step2:基于设定的聚类的类别数目,利用K-means算法做聚类分析,获得每个类的均值ui0,协方差矩阵Ei0,分量权重取i类的样本数占总样本数的比例;
Step3:基于step2估计得到的参数初始值,根据EM算法迭代估计混合高斯模型的各个参数;
EM算法和K-means算法属于公知技术,不在赘述;
预测标准关键点向量B′属于n个不同聚类类别的概率Pgmm=[p1(B′),p2(B′),...,pn(B′)],具体的,聚类类别的概率计算如下:
其中,D为标准关键点向量的数据维度,本实施例中D=14;μi,Σi分别为训练所得的第i个高斯模型的均值与方差,pi(B′)为B′属于第i个聚类类别的概率,i=1,2……n;Pgmm=[p1(B′),p2(B′),...,pn(B′)]。
S7,定义迎机人员的k个行为类别,本实施例中k=5,行为类别包括双手下垂、双手直举、双手平举、一平一直、其他五类。对于已经得到的标准关键点向量B′属于n个不同聚类类别的概率,采用贝叶斯方法计算其属于k个不同行为类别的概率,取概率最大值对于的行为类别为最终分类结果;其中贝叶斯条件概率值通过样本数据统计得到,具体内容如下:
P=PgmmAT=[p1,p2……pk]
其中,aij为行为类别为i的条件下,聚类类别为j的概率,通过样本数据统计得到。取P中概率最大值所代表的行为类别作为最终分类结果,即该N帧图像中迎机人员对应的行为。
S8,根据时间序列判断每个迎机人员的行为是否标准,若不标准,则报警提示。迎机人员的行为标准如下:
迎机人员1:整个迎机过程始终保持双手下垂站立姿势;
迎机人员2:整个迎机过程中具备双手下垂、双手直举、双手平举、一平一直四个行为。
即若不满足以上两个条件,则发出报警提示。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。
Claims (10)
1.一种基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,包括以下步骤:
S1,获取连续的N帧图像;
S2,对图像按时间顺序进行排序,并识别图像中的飞机和迎机人员;
S3,根据飞机识别结果判断飞机状态,若飞机状态为进入,则进入步骤S4,否则返回步骤S1;
S4,统计迎机人员数量并判断是否为规定人数,若是则提取迎机人员的关键骨骼点构建关键点向量B,否则发出报警提示;
S5,对所述关键点向量B中的关键骨骼点进行标准化,得到标准关键点向量B′;
S6,训练混合高斯模型,预测标准关键点向量B′属于n个不同聚类类别的概率Pgmm;
S7,定义迎机人员的k个行为类别,对于已经得到的标准关键点向量B′属于n个不同聚类类别的概率,采用贝叶斯方法计算其属于k个不同行为类别的概率,取概率最大值对于的行为类别为最终分类结果;
S8,根据时间序列判断每个迎机人员的行为是否标准,若不标准,则报警提示。
2.根据权利要求1所述的基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,所述S2中,飞机和迎机人员的识别采用深度学习目标检测算法实现。
3.根据权利要求1所述的基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,所述S3中,飞机状态包括无、进入、离开和停止;其判断方法如下:
若从第1帧图像至第N帧图像中均未检测到飞机,则飞机状态为无;
若第1帧图像未检测到飞机,第N帧图像检测到飞机,且第1帧图像到第N帧图像之间,飞机从未检测到向检测到转变,飞机位置发生变动,则飞机状态为进入;
若第1帧图像检测到飞机,第N帧图像未检测到飞机,且第1帧图像到第N帧图像之间,飞机从检测到向未检测到转变,飞机位置发生变动,则飞机状态为离开;
若从第1帧图像至第N帧图像中均检测到飞机且飞机位置未发生变动,则飞机状态为无。
4.根据权利要求1所述的基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,所述S4中,关键骨骼点的提取采用openpose算法。
5.根据权利要求4所述的基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,关键点向量B包括14个关键骨骼点的坐标,所述14个关键骨骼点依次为脖子、左肩、右肩、臀中、臀左、臀右、左手腕、右手腕、左肘、右肘、左膝、右膝、左脚踝、右脚踝。
6.根据权利要求5所述的基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,所述S5中,标准化的具体步骤如下:
S51,以臀中坐标(x4 y4)和脖子坐标(x1 y1)求缩放因子scale,
其中,L为标准距离;
S52,标准化,
其中,(xi,yi)为标准化前的关键骨骼点的坐标,(x′i,y′i)为标准化后的关键骨骼点的坐标。
7.根据权利要求1所述的基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,所述S6中,聚类类别的概率计算如下:
其中,D为标准关键点向量的数据维度,μi,Σi分别为训练所得的第i个高斯模型的均值与方差,pi(B′)为B′属于第i个聚类类别的概率,i=1,2……n;Pgmm=[p1(B′),p2(B′),...,pn(B′)]。
8.根据权利要求7所述的基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,所述S7中,贝叶斯方法的具体内容如下:
P=PgmmAT=[p1,p2……pk]
其中,aij为行为类别为i的条件下,聚类类别为j的概率。
9.根据权利要求1所述的基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,所述行为类别包括以下五类:双手下垂、双手直举、双手平举、一平一直、其他。
10.根据权利要求9所述的基于目标检测与骨骼点算法的机场迎机人员行为监测方法,其特征在于,所述S8中,迎机人员的行为标准如下:
迎机人员1:整个迎机过程始终保持双手下垂站立姿势;
迎机人员2:整个迎机过程中具备双手下垂、双手直举、双手平举、一平一直四个行为。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910792840.9A CN110490168A (zh) | 2019-08-26 | 2019-08-26 | 基于目标检测与骨骼点算法的机场迎机人员行为监测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910792840.9A CN110490168A (zh) | 2019-08-26 | 2019-08-26 | 基于目标检测与骨骼点算法的机场迎机人员行为监测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110490168A true CN110490168A (zh) | 2019-11-22 |
Family
ID=68554151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910792840.9A Pending CN110490168A (zh) | 2019-08-26 | 2019-08-26 | 基于目标检测与骨骼点算法的机场迎机人员行为监测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110490168A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464882A (zh) * | 2020-12-11 | 2021-03-09 | 东莞先知大数据有限公司 | 连续动作的识别方法、装置、介质及设备 |
CN112926541A (zh) * | 2021-04-09 | 2021-06-08 | 济南博观智能科技有限公司 | 一种睡岗检测方法、装置及相关设备 |
CN113762115A (zh) * | 2021-08-27 | 2021-12-07 | 国网浙江省电力有限公司 | 一种基于关键点检测的配网作业人员行为检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650687A (zh) * | 2016-12-30 | 2017-05-10 | 山东大学 | 一种基于深度信息和骨骼信息的姿势矫正方法 |
CN108647644A (zh) * | 2018-05-11 | 2018-10-12 | 山东科技大学 | 基于gmm表征的煤矿放炮不安全动作识别与判定方法 |
CN109543533A (zh) * | 2018-10-22 | 2019-03-29 | 深圳市视在深科信息技术有限公司 | 一种用于机场作业人员管理的自动识别方法 |
CN109902562A (zh) * | 2019-01-16 | 2019-06-18 | 重庆邮电大学 | 一种基于强化学习的驾驶员异常姿态监测方法 |
CN109993073A (zh) * | 2019-03-14 | 2019-07-09 | 北京工业大学 | 一种基于Leap Motion的复杂动态手势识别方法 |
-
2019
- 2019-08-26 CN CN201910792840.9A patent/CN110490168A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650687A (zh) * | 2016-12-30 | 2017-05-10 | 山东大学 | 一种基于深度信息和骨骼信息的姿势矫正方法 |
CN108647644A (zh) * | 2018-05-11 | 2018-10-12 | 山东科技大学 | 基于gmm表征的煤矿放炮不安全动作识别与判定方法 |
CN109543533A (zh) * | 2018-10-22 | 2019-03-29 | 深圳市视在深科信息技术有限公司 | 一种用于机场作业人员管理的自动识别方法 |
CN109902562A (zh) * | 2019-01-16 | 2019-06-18 | 重庆邮电大学 | 一种基于强化学习的驾驶员异常姿态监测方法 |
CN109993073A (zh) * | 2019-03-14 | 2019-07-09 | 北京工业大学 | 一种基于Leap Motion的复杂动态手势识别方法 |
Non-Patent Citations (1)
Title |
---|
中国民用航空局: "《中华人民共和国民用航空行业标准》", 8 February 2012 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112464882A (zh) * | 2020-12-11 | 2021-03-09 | 东莞先知大数据有限公司 | 连续动作的识别方法、装置、介质及设备 |
CN112926541A (zh) * | 2021-04-09 | 2021-06-08 | 济南博观智能科技有限公司 | 一种睡岗检测方法、装置及相关设备 |
CN112926541B (zh) * | 2021-04-09 | 2022-11-08 | 济南博观智能科技有限公司 | 一种睡岗检测方法、装置及相关设备 |
CN113762115A (zh) * | 2021-08-27 | 2021-12-07 | 国网浙江省电力有限公司 | 一种基于关键点检测的配网作业人员行为检测方法 |
CN113762115B (zh) * | 2021-08-27 | 2024-03-15 | 国网浙江省电力有限公司 | 一种基于关键点检测的配网作业人员行为检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107134144B (zh) | 一种用于交通监控的车辆检测方法 | |
CN110018524B (zh) | 一种基于视觉-属性的x射线安检违禁品识别方法 | |
CN106529442B (zh) | 一种行人识别方法和装置 | |
CN110490168A (zh) | 基于目标检测与骨骼点算法的机场迎机人员行为监测方法 | |
CN109166094A (zh) | 一种基于深度学习的绝缘子故障定位识别方法 | |
US7995841B2 (en) | Hybrid graph model for unsupervised object segmentation | |
CN109766884A (zh) | 一种基于Faster-RCNN的机场跑道异物检测方法 | |
CN103268495B (zh) | 计算机系统中基于先验知识聚类的人体行为建模识别方法 | |
CN104992223A (zh) | 基于深度学习的密集人数估计方法 | |
CN108182445B (zh) | 基于大数据智能核独立元分析的过程故障识别方法 | |
CN111832608B (zh) | 一种基于单阶段检测模型yolov3的铁谱图像多磨粒识别方法 | |
CN109614488B (zh) | 基于文本分类和图像识别的配网带电作业条件判别方法 | |
CN105260738A (zh) | 基于主动学习的高分辨率遥感影像变化检测方法及系统 | |
CN106023257A (zh) | 一种基于旋翼无人机平台的目标跟踪方法 | |
CN109902560A (zh) | 一种基于深度学习的疲劳驾驶预警方法 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN109948501A (zh) | 一种监控视频中人员和安全帽的检测方法 | |
CN108230313B (zh) | 基于部件自适应选择与判别模型的sar图像目标检测方法 | |
CN106897669A (zh) | 一种基于一致迭代多视角迁移学习的行人再辨识方法 | |
CN113362604B (zh) | 一种基于扇区动态交通特征的管制员工作负荷评估方法 | |
CN107909044A (zh) | 一种结合卷积神经网络和轨迹预测的人数统计方法 | |
CN108762503A (zh) | 一种基于多模态数据采集的人机交互系统 | |
CN110458022A (zh) | 一种基于域适应的可自主学习目标检测方法 | |
CN114283469A (zh) | 一种基于改进YOLOv4-tiny的轻量型目标检测方法及系统 | |
CN113158983A (zh) | 一种基于红外视频序列图像的机场场面活动行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191122 |
|
RJ01 | Rejection of invention patent application after publication |