CN111325292A - 一种对象行为的识别方法及装置 - Google Patents
一种对象行为的识别方法及装置 Download PDFInfo
- Publication number
- CN111325292A CN111325292A CN202010166577.5A CN202010166577A CN111325292A CN 111325292 A CN111325292 A CN 111325292A CN 202010166577 A CN202010166577 A CN 202010166577A CN 111325292 A CN111325292 A CN 111325292A
- Authority
- CN
- China
- Prior art keywords
- behavior
- data
- identified
- track
- time sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000006399 behavior Effects 0.000 claims abstract description 307
- 238000012549 training Methods 0.000 claims abstract description 53
- 230000015654 memory Effects 0.000 claims description 25
- 238000007781 pre-processing Methods 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 238000012952 Resampling Methods 0.000 claims description 12
- 230000001133 acceleration Effects 0.000 claims description 9
- 230000002776 aggregation Effects 0.000 claims description 9
- 238000004220 aggregation Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 206010012289 Dementia Diseases 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000032683 aging Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 208000006011 Stroke Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 201000010235 heart cancer Diseases 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 208000024348 heart neoplasm Diseases 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种对象行为的识别方法及装置。该方法根据待识别对象的位置信息,获取其轨迹数据;位置信息包括待识别对象的对象标识和不同时刻的位置数据的对应关系;轨迹数据为待识别对象在所述不同时刻的位置数据形成的行为轨迹的数据;获取待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征;根据预设的行为识别模型,对时序特征和相应的轨迹图像特征进行识别,确定待识别对象的行为类型,行为识别模型是利用不同轨迹数据的时序特征和相应的轨迹图像特征与行为类型的关系输出相应轨迹数据对应对象的行为类型。该方法对位置信息对应的时序特征和轨迹图像特征进行综合训练,实现了对每个对象的轨迹数据进行整体识别,提高了识别准确率。
Description
技术领域
本申请涉及数据处理领域,尤其涉及一种对象行为的识别方法及装置。
背景技术
我国老龄化形式逐渐严峻,截止2016年我国60岁以上人口达2.29亿,约占总人口比例的16.6%,按照老年人口比例和患病率(4%-6%)估算,中国失智症人数接近1000万,约占世界该病总人数的1/4,已成为世界上失智老人最多的国家,预测2040年将达到2200万,是所有发达国家失智老人数的总和。
失智症已成为继心脏病、癌症和中风之后,导致老年人致残和死亡的第四大病因,随着高龄化发展失智症发病率大幅上升,65岁及以上老年失智症发病率约13%,85岁及以上的老人发病率达25%,且具有高发病率、高医疗费用、高致残率、长病程等特点,会逐渐破坏患者的记忆力和思维能力,最终导致患者无法正常生活乃至死亡,造成患者本人、家庭和社会的负担沉重,是中国乃至国际亟待解决的社会问题。
失智老人常常伴有徘徊行为、长时间驻留行为、夜间游走、进入他人房间、进入危险区域、跟随行为、聚集行为等异常轨迹行为。识别失智老人的行为有利于养老机构的日常管理与老人的健康管理。
现有的行为识别方法主要包括:基于运动特征的行为识别方法、基于分类规则的行为识别方法、基于图像的行为识别方法。
然而,基于运动特征的行为识别方法是结合行为的特点,提取具有较强识别能力的运动特征,但没有考虑到行为的整体形状等信息;
基于分类规则的行为识别方法是利用行为的时间和位置信息,但仅适用于训练数据足够充分,且便于挖掘规律的情况,即应用场景受到限制;
基于图像的行为识别方法是利用图像网格剖分,将行为的时间序列特征转换为轨迹图像特征,转换过程中丢弃了行为的时间特征,利用轨迹图像特征进行识别,该方法主要考虑了行为的整体形状和停留时长等信息,但忽略了行为的时间序列,降低了识别的准确性。
发明内容
本申请实施例提供一种对象行为的识别方法和装置,解决了现有技术存在的上述问题,以提高识别的准确性。
第一方面,提供了一种对象行为的识别方法,该方法可以包括:
根据待识别对象的位置信息,获取所述待识别对象的轨迹数据;其中,所述位置信息包括所述待识别对象的对象标识和不同时刻的位置数据的对应关系;所述轨迹数据为所述待识别对象在所述不同时刻的位置数据形成的行为轨迹的数据;
获取所述待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征;
根据预设的行为识别模型,对所述时序特征和相应的轨迹图像特征进行识别,确定所述待识别对象的行为类型,所述行为识别模型是利用不同轨迹数据的时序特征和相应的轨迹图像特征与行为类型的关系输出相应轨迹数据对应对象的行为类型。
在一个可选的实现中,根据待识别对象的位置信息,获取所述待识别对象的轨迹数据之前,所述方法还包括:
采集的待识别对象的初始位置信息;
采用预设的预处理算法,对所述初始位置信息进行处理,得到待识别对象的位置信息;其中,所述预处理算法包括重采样算法和异常值处理算法。
在一个可选的实现中,获取所述待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征,包括:
采用预设时序特征提取算法,对所述轨迹数据中不同时刻的位置数据进行提取,获取所述轨迹数据的时序特征;其中,所述时序特征包括所述轨迹数据中不同时刻的速度、加速度、曲率、方向和转角;
采用预设特征转换算法,将所述轨迹数据转换为相应行为类型的轨迹图像,并获取所述轨迹图像的轨迹图像特征。
在一个可选的实现中,所述预设的行为识别模型的训练包括如下步骤:
根据每种行为类型对象的位置信息,获取对应行为类型对象的轨迹数据;其中,所述每种行为类型对象的位置信息包括所述对象的对象标识和不同时刻的位置数据的对应关系,所述对应行为类型对象的轨迹数据为相应行为类型对象在所述不同时刻的位置数据形成的行为轨迹的数据;
获取每种行为类型的轨迹数据的时序特征和相应的轨迹图像特征;
采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型,所述行为识别模型用于识别所述不同行为类型。
在一个可选的实现中,采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型,包括:
采用卷积神经网络CNN算法,对所述轨迹图像特征进行运算,得到卷积特征;
采用长短时记忆网络LSTM算法,对所述时序特征进行运算,得到目标时序特征;
采用预设训练算法,对所述卷积特征和所述目标时序特征进行训练,得到行为识别模型;其中,所述行为类型包括徘徊行为、驻留行为和正常行为。
在一个可选的实现中,所述位置信息还包括所述位置数据所属的空间标识。
在一个可选的实现中,在所述待识别对象的数量为至少两个时,所述方法还包括:
采用预设聚类算法,对所述多个待识别对象的每个时刻的位置信息进行聚类,得到所述每个时刻的至少一个对象集合;
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体跟随行为;
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度不大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体聚集行为。
第二方面,提供了一种对象行为的识别装置,该装置可以包括:获取单元和确定单元;
所述获取单元,用于据待识别对象的位置信息,获取所述待识别对象的轨迹数据;其中,所述位置信息包括所述待识别对象的对象标识和不同时刻的位置数据的对应关系;所述轨迹数据为所述待识别对象在所述不同时刻的位置数据形成的行为轨迹的数据;
以及,获取所述待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征;
所述确定单元,用于根据预设的行为识别模型,对所述时序特征和相应的轨迹图像特征进行识别,确定所述待识别对象的行为类型,所述行为识别模型是利用不同轨迹数据的时序特征和相应的轨迹图像特征与行为类型的关系输出相应轨迹数据对应对象的行为类型。
在一个可选的实现中,所述装置还包括采集单元和预处理单元;
采集单元,用于采集的待识别对象的初始位置信息;
所述预处理单元,用于采用预设的预处理算法,对所述初始位置信息进行处理,得到待识别对象的位置信息;其中,所述预处理算法包括重采样算法和异常值处理算法。
在一个可选的实现中,所述获取单元,具体用于采用预设时序特征提取算法,对每种行为类型的轨迹数据中不同时刻的位置数据进行提取,获取所述每种行为类型的轨迹数据的时序特征;其中,所述时序特征包括所述每种行为类型的轨迹数据中不同时刻的速度、加速度、曲率、方向和转角;
以及,采用预设特征转换算法,将所述每种行为类型的轨迹数据转换为相应行为类型的轨迹图像,并获取所述轨迹图像的轨迹图像特征。
在一个可选的实现中,所述装置还包括训练单元;
所述获取单元,还用于根据每种行为类型对象的位置信息,获取对应行为类型对象的轨迹数据;其中,所述每种行为类型对象的位置信息包括所述对象的对象标识和不同时刻的位置数据的对应关系,所述对应行为类型对象的轨迹数据为相应行为类型对象在所述不同时刻的位置数据形成的行为轨迹的数据;
以及,获取每种行为类型的轨迹数据的时序特征和相应的轨迹图像特征;
所述训练单元,用于采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型。
在一个可选的实现中,所述训练单元,具体用于采用卷积神经网络CNN算法,对所述轨迹图像特征进行运算,得到卷积特征;
采用长短时记忆网络LSTM算法,对所述时序特征进行运算,得到目标时序特征;
采用预设训练算法,对所述卷积特征和所述目标时序特征进行训练,得到行为识别模型;其中,所述行为类型包括徘徊行为、驻留行为和正常行为。
在一个可选的实现中,所述位置信息还包括所述位置数据所属的空间标识。
在一个可选的实现中,在所述待识别对象的数量为至少两个时,所述装置还包括聚类单元;
所述聚类单元,用于采用预设聚类算法,对所述多个待识别对象的每个时刻的位置信息进行聚类,得到所述每个时刻的至少一个对象集合;
所述确定单元,还用于若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体跟随行为;
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度不大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体聚集行为。
第三方面,提供了一种电子设备,该电子设备包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面中任一所述的方法步骤。
第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面中任一所述的方法步骤。
本发明实施例提供的对象行为的识别方法根据待识别对象的位置信息,获取待识别对象的轨迹数据;位置信息包括待识别对象的对象标识和不同时刻的位置数据的对应关系;轨迹数据为所述待识别对象在不同时刻的位置数据形成的行为轨迹的数据;获取待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征;根据预设的行为识别模型,对时序特征和相应的轨迹图像特征进行识别,确定待识别对象的行为类型,行为识别模型是利用不同轨迹数据的时序特征和相应的轨迹图像特征与行为类型的关系输出相应轨迹数据对应对象的行为类型。该方法对位置信息对应的时序特征和轨迹图像特征进行综合训练,实现了对每个对象的轨迹数据进行整体识别,提高了识别准确率。
附图说明
图1为本发明实施例提供的一种应用对象行为的识别方法的定位系统的结构示意图;
图2为本发明实施例提供的一种对象行为的识别方法的流程示意图;
图3为本发明实施例提供的一种轨迹数据转换为轨迹图像的转换过程示意图;
图4为本发明实施例提供的一种对象行为的识别装置的结构示意图;
图5为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,并不是全部的实施例。基于本申请实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本发明实施例可以对目标对象,如特定病症患者的行为轨迹进行识别,确定其行为类型,如个体行为和群体行为。其中,以目标对象为失智老人者为例,个体行为类型可以包括徘徊行为、驻留行为、夜间游走、进入他人房间、进入危险区域等;群体行为类型可以包括群体跟随行为和群体聚集行为。
由于现有的行为识别方法中基于运动特征的行为识别方法没有考虑到行为的整体形状等信息;基于分类规则的行为识别方法仅适用于训练数据足够充分,且便于挖掘规律的情况,即应用场景收到限制;基于图像的行为识别方法仅考虑了行为的整体形状和停留时长等信息,但忽略了行为的时间序列,降低了识别的准确性,故本申请实施例提供一种对象行为的识别方法。
以下结合说明书附图对本申请的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明,并且在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面以目标对象为失智老人者为例,对本申请实施例提供一种对象行为的识别方法进行介绍。针对失智老人的行为轨迹识别主要是小尺度的室内行为,因此选择室内定位数据与视频监控数据相对合适,但是视频监控由于受光线、遮挡物等限制,行为轨迹可能不完整,因此本申请主要选择室内定位数据,其中超宽带(Ultra-Wideband,UWB)以其穿透力高、功耗小、精度高等特点,更加适合失智老人行为轨迹识别。
本发明实施例提供的对象行为的识别方法可以应用在图1所示的定位系统中,该系统可以包括基站、标签、云端/本地的定位引擎,如基于UWB的定位引擎、显示终端。基站在定位引擎的作用在计算得到标签的位置信息,并在显示终端上显示。
在2维定位场景中,如养老机构中的公共活动空间,基站最少布置3个。在1维定位场景,如养老机构的直线走廊空间,基站最少布置2个。在0维定位场景中,如失智老人房间内,基站可设置为1个。失智老人在空间内走动时,定位系统实时接收<id,t,localx,localy,zone_id>元组形式的位置信息,其中,id为标签,如失智老人的标识ID,t为当前时间戳,localx和localy为当前二维坐标,zone_id为当前二维坐标所属的空间ID。
图2为本发明实施例提供的一种对象行为的识别方法的流程示意图。如图2所示,该方法可以包括:
步骤210、根据待识别对象的位置信息,获取待识别对象的轨迹数据。
其中,位置信息可以包括待识别对象的对象标识和不同时刻的位置数据的对应关系,轨迹数据为待识别对象在不同时刻的位置数据形成的行为轨迹的数据。
可选地,位置信息还可以包括位置数据所属的空间标识,以便于识别对象所在的当前空间。如,规定每个老人id唯一对应一个房间zone_id,即<id,zone_id>。
执行该步骤之前,为了提高数据的准确性,可以采用预设的预处理算法,对待识别对象的初始位置信息进行处理,得到待识别对象的位置信息。预处理算法可以包括重采样算法和异常值处理算法。
(1)采用重采样算法进行重采样处理:由于采集的初始位置信息往往是不规则采样,因此需要利用插值方法进行1s重采样。其中,1s内的坐标localx和localy数据取中位数进行重采样,区域zone_id取1s内众数进行重采样,然后利用nearest进行插值,补全缺失值。
(2)采用异常值处理算法进行异常值处理:
由于网络延迟、数据丢包等原因,室内轨迹点有较多的异常空值Null,及离群点位,常规的中值滤波、均值滤波会改变轨迹,因此采用速度约束的方式进行离群点位的剔除,即当速度大于极限阈值时判定为离群点剔除。
需要说明的是,根据实际需要,可以对预处理算法进行更新,即更换预处理算法中的具体算法,以对数据进行相应预处理,本发明实施例在此不对预处理算法中的具体算法做限定。
步骤220、获取待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征。
采用预设时序特征提取算法,对待识别对象的轨迹数据中不同时刻的位置数据进行提取,获取待识别对象的轨迹数据的时序特征;其中,时序特征可以包括待识别对象的轨迹数据中不同时刻的速度、加速度、曲率、方向和转角等。
轨迹数据可以表示为一个点序列Pi∈{P1,P2,...,Pn},每个点Pi包含位置数据(xi,yi)和时间(ti),即Pi=(xi,yi,ti)。利用式(1)-(6),可计算出速度(vi),加速度(ai)、曲率(si)、方向(direction)和转角(turning angle)。其中,曲率(sinuosity)为两点之间的移动距离与两点之间的直线距离之比,可揭示路径的弯曲度。方向是连续采样点之间的移动方向,它用方向和基本方向(如北)之间的夹角来表示;转角可通过计算连续方向之间的差异而得到。
先得到Pi和Pi+1之间的欧氏距离dist(Pi,Pi+1),以及Pi和Pi+1之间的时间差Δti:
di=dist(Pi,Pi+1); (1)
Δti=ti+1-ti; (2)
由此,速度:vi=di/Δti; (3)
加速度:ai=(vi+1-vi)/Δti; (4)
曲率:si=(dist(Pi-1,Pi)+dist(Pi,Pi+1))/dist(Pi-1,Pi+1); (5)
转角:turnAngi=|directi+1-directi|; (6)
之后,采用预设特征转换算法,将待识别对象的轨迹数据转换为相应行为类型的轨迹图像,并获取轨迹图像的轨迹图像特征。
如图3所示,从待识别对象的轨迹数据中获取采样点时间间隔为预设间隔的当前轨迹数据,构成相应的轨迹图像;将该轨迹图像按照像素划分为一个个网格,通过该轨迹图像中轨迹穿过每个网格的采样点个数设置每个网格的像元值。
其中,为了提高识别的准确性,预设间隔可以选择较小的时间段。
轨迹图像的水平方向表示位置数据中的localx,垂直方向表示位置数据中的localy。
每个网格的像元值大小可以表示轨迹数据在该网格中停留的时间长短。
步骤230、根据预设的行为识别模型,对时序特征和相应的轨迹图像特征进行识别,确定待识别对象的行为类型。
行为识别模型是利用不同行为类型轨迹数据的时序特征和相应的轨迹图像特征的关系输出相应轨迹数据对应对象的行为类型。
具体训练过程如下:
可选地,为了满足深度学习数据样本条件,将具有不同行为类型的轨迹数据进行分段,且为了能够表示足够长度的行为特征,即保证对象行为的完整性,可以设置滑动窗口长度为300s,滑动步长为150s。根据已知的轨迹数据的行为类型,对每段的轨迹数据进行行为类型标注。行为类型主要分为3类即:徘徊、驻留、正常。使用Onehot编码表示,如某段轨迹数据的行为类型为徘徊,则对应向量为(1,0,0)。其中,标注判定标准为该段最大比例的状态,如时间比中徘徊:长时间驻留:正常=3:0:1,则判定该段轨迹数据的行为类型为徘徊,且其对应向量为(1,0,0)。
根据不同行为类型对象中每个行为类型对象的位置信息,获取对应行为类型对象的轨迹数据;其中,所述每个行为类型对象的位置信息包括所述对象的标识和不同时刻的位置数据的对应关系,所述轨迹数据为每种行为类型对象在所述不同时刻的位置数据形成的行为轨迹的数据。
再获取每种行为类型的轨迹数据的时序特征和相应的轨迹图像特征;
之后,采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型,所述行为识别模型用于识别所述不同行为类型。采用卷积神经网络(Convolutional Neural Networks,CNN)算法,对轨迹图像特征进行运算,得到卷积特征;采用长短时记忆网络(Long Short Term Memory Network,LSTM)算法,对时序特征进行运算,得到目标时序特征;采用预设训练算法,对卷积特征和目标时序特征进行训练,得到包括针对不同行为类型的时序特征和相应的轨迹图像特征对应的网络结构权重参数,即行为识别模型。
进一步的,根据行为识别模型,对待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征进行识别,确定该待识别对象的行为类型。即,将待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征输入行为识别模型中,通过与行为识别模型中的网络结构权重参数运算,得到不同行为类型的概率,从而确定待识别对象的行为类型。
例如,若对象为失智老人,则该行为类型可以包括徘徊行为、驻留行为和正常行为、夜间游走、进入他人房间、进入危险区域。
其中,若位置信息中当前的zone_id不是危险区域的标识,且当前的zone_id与对象的标识id对应的该对象所属的空间zone_id不同,则确定该对象的行为类型为进入他人房间;其中,规定每个对象的id唯一对应一个空间或房间zone_id。
若位置信息中当前的zone_id是危险区域的标识,则确定该对象的行为类型为进入危险区域;
若位置信息中当前的时间属于预设夜间时段,如22:00-05:00之间,且当前的位置信息存在徘徊行为,则确定该对象的行为类型为夜间游走。
可选地,在采集到多个待识别对象的位置信息的情况下:
采用预设聚类算法,如于密度的聚类算法,对多个待识别对象的每个时刻的位置信息进行聚类,得到每个时刻的至少一个对象集合。
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且第一对象集合的平均速度大于预设速度阈值,则确定第一对象集合的行为类型为群体跟随行为;其中,第一对象集合为至少一个对象集合的任意一个对象集合。
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且第一对象集合的平均速度不大于预设速度阈值,则确定第一对象集合的行为类型为群体聚集行为。
其中,群体跟随行为是指由至少2个对象形成的集合,并且任意相邻时刻的对象间的距离都小于等于给定的距离阈值,对象移动速度大于v2。
群体聚集行为是指由一定数目的对象形成的集合,并且任意相邻时刻的对象间的距离都小于等于给定的距离阈值,对象移动速度小于v1。v2不小于v1。
可选地,基于密度的聚类算法可以是DBSCAN(Density-Based SpatialClustering of Applications with Noise)算法输入为每个时刻各对象坐标xt和yt,参数为扫描半径(eps)和最小包含点数(minPts)。算法具体步骤如下:
1)任选一个未被访问(unvisited)的点开始,找出与其距离在扫描半径eps之内(即包括eps)的所有附近点。
2)如果附近点的数量≥最小包含点数minPts,则当前点与其附近点形成一个群体,并且出发点被标记为已访问(visited)。然后递归,以相同的方法处理该群体内所有未被标记为已访问的点,从而对群体进行扩展。如果附近点的数量<minPts>,则该点暂时被标记作为噪声点。
3)如果群体充分地被扩展,即群体内的所有点被标记为已访问,然后用同样的算法去处理未被访问的点,直到所有点被访问。
本发明实施例提供的对象行为的识别方法根据待识别对象的位置信息,获取待识别对象的轨迹数据;位置信息包括待识别对象的对象标识和不同时刻的位置数据的对应关系;轨迹数据为所述待识别对象在不同时刻的位置数据形成的行为轨迹的数据;获取待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征;根据预设的行为识别模型,对时序特征和相应的轨迹图像特征进行识别,确定待识别对象的行为类型,行为识别模型是利用不同轨迹数据的时序特征和相应的轨迹图像特征与行为类型的关系输出相应轨迹数据对应对象的行为类型。该方法对位置信息对应的时序特征和轨迹图像特征进行综合训练,实现了对每个对象的轨迹数据进行整体识别,提高了识别准确率。
与上述方法对应的,本发明实施例还提供一种行为识别模型的训练装置,如图4所示,该行为识别模型的训练装置包括:获取单元410和确定单元420;
获取单元410,用于根据待识别对象的位置信息,获取所述待识别对象的轨迹数据;其中,所述位置信息包括所述待识别对象的对象标识和不同时刻的位置数据的对应关系;所述轨迹数据为所述待识别对象在所述不同时刻的位置数据形成的行为轨迹的数据;
以及,获取所述待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征;
确定单元420,用于根据预设的行为识别模型,对所述时序特征和相应的轨迹图像特征进行识别,确定所述待识别对象的行为类型,所述行为识别模型是利用不同轨迹数据的时序特征和相应的轨迹图像特征与行为类型的关系输出相应轨迹数据对应对象的行为类型。
在一个可选的实现中,所述装置还包括采集单元430和预处理单元440;
采集单元430,用于采集的待识别对象的初始位置信息;
预处理单元440,用于采用预设的预处理算法,对具有不同行为类型的对象的初始位置信息进行处理,得到待识别对象位置信息;所述预处理算法包括重采样算法和异常值处理算法。
在一个可选的实现中,获取单元410,具体用于采用预设时序特征提取算法,对每种行为类型的轨迹数据中不同时刻的位置数据进行提取,获取所述每种行为类型的轨迹数据的时序特征;其中,所述时序特征包括所述每种行为类型的轨迹数据中不同时刻的速度、加速度、曲率、方向和转角;
以及,采用预设特征转换算法,将所述每种行为类型的轨迹数据转换为相应行为类型的轨迹图像,并获取所述轨迹图像的轨迹图像特征。
在一个可选的实现中,所述装置还包括训练单元450;
获取单元410,还用于根据每种行为类型对象的位置信息,获取对应行为类型对象的轨迹数据;其中,所述每种行为类型对象的位置信息包括所述对象的对象标识和不同时刻的位置数据的对应关系,所述对应行为类型对象的轨迹数据为相应行为类型对象在所述不同时刻的位置数据形成的行为轨迹的数据;
以及,获取每种行为类型的轨迹数据的时序特征和相应的轨迹图像特征;
训练单元450,用于采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型。
在一个可选的实现中,训练单元450,具体用于采用卷积神经网络CNN算法,对所述轨迹图像特征进行运算,得到卷积特征;
采用长短时记忆网络LSTM算法,对所述时序特征进行运算,得到目标时序特征;
采用预设训练算法,对所述卷积特征和所述目标时序特征进行训练,得到行为识别模型;其中,所述行为类型包括徘徊行为、驻留行为和正常行为。
在一个可选的实现中,所述位置信息还包括所述位置数据所属的空间标识。
在一个可选的实现中,在所述待识别对象的数量为至少两个时,所述装置还包括聚类单元460;
聚类单元460,用于采用预设聚类算法,对所述多个待识别对象的每个时刻的位置信息进行聚类,得到所述每个时刻的至少一个对象集合;
确定单元420,还用于若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体跟随行为;
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度不大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体聚集行为。
本发明上述实施例提供的行为识别模型的训练装置的各功能单元的功能,可以通过上述各方法步骤来实现,因此,本发明实施例提供的行为识别模型的训练装置中的各个单元的具体工作过程和有益效果,在此不复赘述。
本发明实施例还提供了一种电子设备,如图5所示,包括处理器510、通信接口520、存储器530和通信总线540,其中,处理器510,通信接口520,存储器530通过通信总线540完成相互间的通信。
存储器530,用于存放计算机程序;
处理器510,用于执行存储器530上所存放的程序时,实现如下步骤:
根据待识别对象的位置信息,获取所述待识别对象的轨迹数据;其中,所述位置信息包括所述待识别对象的对象标识和不同时刻的位置数据的对应关系;所述轨迹数据为所述待识别对象在所述不同时刻的位置数据形成的行为轨迹的数据;
获取所述待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征;
根据预设的行为识别模型,对所述时序特征和相应的轨迹图像特征进行识别,确定所述待识别对象的行为类型,所述行为识别模型是利用不同轨迹数据的时序特征和相应的轨迹图像特征与行为类型的关系输出相应轨迹数据对应对象的行为类型。
在一个可选的实现中,根据待识别对象的位置信息,获取所述待识别对象的轨迹数据之前,所述方法还包括:
采集的待识别对象的初始位置信息;
采用预设的预处理算法,对所述初始位置信息进行处理,得到待识别对象的位置信息;其中,所述预处理算法包括重采样算法和异常值处理算法。
在一个可选的实现中,获取所述待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征,包括:
采用预设时序特征提取算法,对所述轨迹数据中不同时刻的位置数据进行提取,获取所述轨迹数据的时序特征;其中,所述时序特征包括所述轨迹数据中不同时刻的速度、加速度、曲率、方向和转角;
采用预设特征转换算法,将所述轨迹数据转换为相应行为类型的轨迹图像,并获取所述轨迹图像的轨迹图像特征。
在一个可选的实现中,所述预设的行为识别模型的训练包括如下步骤:
根据每种行为类型对象的位置信息,获取对应行为类型对象的轨迹数据;其中,所述每种行为类型对象的位置信息包括所述对象的对象标识和不同时刻的位置数据的对应关系,所述对应行为类型对象的轨迹数据为相应行为类型对象在所述不同时刻的位置数据形成的行为轨迹的数据;
获取每种行为类型的轨迹数据的时序特征和相应的轨迹图像特征;
采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型,所述行为识别模型用于识别所述不同行为类型。
在一个可选的实现中,采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型,包括:
采用卷积神经网络CNN算法,对所述轨迹图像特征进行运算,得到卷积特征;
采用长短时记忆网络LSTM算法,对所述时序特征进行运算,得到目标时序特征;
采用预设训练算法,对所述卷积特征和所述目标时序特征进行训练,得到行为识别模型;其中,所述行为类型包括徘徊行为、驻留行为和正常行为。
在一个可选的实现中,所述位置信息还包括所述位置数据所属的空间标识。
在一个可选的实现中,在所述待识别对象的数量为至少两个时,所述方法还包括:
采用预设聚类算法,对所述多个待识别对象的每个时刻的位置信息进行聚类,得到所述每个时刻的至少一个对象集合;
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体跟随行为;
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度不大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体聚集行为。
上述提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
由于上述实施例中电子设备的各器件解决问题的实施方式以及有益效果可以参见图2所示的实施例中的各步骤来实现,因此,本发明实施例提供的电子设备的具体工作过程和有益效果,在此不复赘述。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的对象行为的识别方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的对象行为的识别方法。
本领域内的技术人员应明白,本申请实施例中的实施例可提供为方法、系统、或计算机程序产品。因此,本申请实施例中可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例中可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请实施例中是参照根据本申请实施例中实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例中的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例中范围的所有变更和修改。
显然,本领域的技术人员可以对本申请实施例中实施例进行各种改动和变型而不脱离本申请实施例中实施例的精神和范围。这样,倘若本申请实施例中实施例的这些修改和变型属于本申请实施例中权利要求及其等同技术的范围之内,则本申请实施例中也意图包含这些改动和变型在内。
Claims (16)
1.一种对象行为的识别方法,其特征在于,所述方法包括:
根据待识别对象的位置信息,获取所述待识别对象的轨迹数据;其中,所述位置信息包括所述待识别对象的对象标识和不同时刻的位置数据的对应关系;所述轨迹数据为所述待识别对象在所述不同时刻的位置数据形成的行为轨迹的数据;
获取所述待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征;
根据预设的行为识别模型,对所述时序特征和相应的轨迹图像特征进行识别,确定所述待识别对象的行为类型,所述行为识别模型是利用不同轨迹数据的时序特征和相应的轨迹图像特征与行为类型的关系输出相应轨迹数据对应对象的行为类型。
2.如权利要求1所述的方法,其特征在于,根据待识别对象的位置信息,获取所述待识别对象的轨迹数据之前,所述方法还包括:
采集的待识别对象的初始位置信息;
采用预设的预处理算法,对所述初始位置信息进行处理,得到待识别对象的位置信息;其中,所述预处理算法包括重采样算法和异常值处理算法。
3.如权利要求1所述的方法,其特征在于,获取所述待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征,包括:
采用预设时序特征提取算法,对所述轨迹数据中不同时刻的位置数据进行提取,获取所述轨迹数据的时序特征;其中,所述时序特征包括所述轨迹数据中不同时刻的速度、加速度、曲率、方向和转角;
采用预设特征转换算法,将所述轨迹数据转换为相应行为类型的轨迹图像,并获取所述轨迹图像的轨迹图像特征。
4.如权利要求1所述的方法,其特征在于,所述预设的行为识别模型的训练包括如下步骤:
根据每种行为类型对象的位置信息,获取对应行为类型对象的轨迹数据;其中,所述每种行为类型对象的位置信息包括所述对象的对象标识和不同时刻的位置数据的对应关系,所述对应行为类型对象的轨迹数据为相应行为类型对象在所述不同时刻的位置数据形成的行为轨迹的数据;
获取每种行为类型的轨迹数据的时序特征和相应的轨迹图像特征;
采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型,所述行为识别模型用于识别所述不同行为类型。
5.如权利要求4所述的方法,其特征在于,采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型,包括:
采用卷积神经网络CNN算法,对所述轨迹图像特征进行运算,得到卷积特征;
采用长短时记忆网络LSTM算法,对所述时序特征进行运算,得到目标时序特征;
采用预设训练算法,对所述卷积特征和所述目标时序特征进行训练,得到行为识别模型;其中,所述行为类型包括徘徊行为、驻留行为和正常行为。
6.如权利要求1所述的方法,其特征在于,所述位置信息还包括所述位置数据所属的空间标识。
7.如权利要求1所述的方法,其特征在于,在所述待识别对象的数量为至少两个时,所述方法还包括:
采用预设聚类算法,对所述多个待识别对象的每个时刻的位置信息进行聚类,得到所述每个时刻的至少一个对象集合;
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体跟随行为;
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度不大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体聚集行为。
8.一种对象行为的识别装置,其特征在于,所述装置包括:获取单元和确定单元;
所述获取单元,用于根据待识别对象的位置信息,获取所述待识别对象的轨迹数据;其中,所述位置信息包括所述待识别对象的对象标识和不同时刻的位置数据的对应关系;所述轨迹数据为所述待识别对象在所述不同时刻的位置数据形成的行为轨迹的数据;
以及,获取所述待识别对象的轨迹数据对应的时序特征和相应的轨迹图像特征;
所述确定单元,用于根据预设的行为识别模型,对所述时序特征和相应的轨迹图像特征进行识别,确定所述待识别对象的行为类型,所述行为识别模型是利用不同轨迹数据的时序特征和相应的轨迹图像特征与行为类型的关系输出相应轨迹数据对应对象的行为类型。
9.如权利要求8所述的装置,其特征在于,所述装置还包括采集单元和预处理单元;
采集单元,用于采集的待识别对象的初始位置信息;
所述预处理单元,用于采用预设的预处理算法,对所述初始位置信息进行处理,得到待识别对象的位置信息;其中,所述预处理算法包括重采样算法和异常值处理算法。
10.如权利要求8所述的装置,其特征在于,
所述获取单元,具体用于采用预设时序特征提取算法,对每种行为类型的轨迹数据中不同时刻的位置数据进行提取,获取所述每种行为类型的轨迹数据的时序特征;其中,所述时序特征包括所述每种行为类型的轨迹数据中不同时刻的速度、加速度、曲率、方向和转角;
以及,采用预设特征转换算法,将所述每种行为类型的轨迹数据转换为相应行为类型的轨迹图像,并获取所述轨迹图像的轨迹图像特征。
11.如权利要求8所述的装置,其特征在于,所述装置还包括训练单元;
所述获取单元,还用于根据每种行为类型对象的位置信息,获取对应行为类型对象的轨迹数据;其中,所述每种行为类型对象的位置信息包括所述对象的对象标识和不同时刻的位置数据的对应关系,所述对应行为类型对象的轨迹数据为相应行为类型对象在所述不同时刻的位置数据形成的行为轨迹的数据;
以及,获取每种行为类型的轨迹数据的时序特征和相应的轨迹图像特征;
所述训练单元,用于采用预设训练算法,对所述不同行为类型的时序特征和相应的轨迹图像特征进行训练,得到行为识别模型,所述行为识别模型用于识别所述不同行为类型。
12.如权利要求11所述的装置,其特征在于,
所述训练单元,具体用于采用卷积神经网络CNN算法,对所述轨迹图像特征进行运算,得到卷积特征;
采用长短时记忆网络LSTM算法,对所述时序特征进行运算,得到目标时序特征;
采用预设训练算法,对所述卷积特征和所述目标时序特征进行训练,得到行为识别模型;其中,所述行为类型包括徘徊行为、驻留行为和正常行为。
13.如权利要求8所述的装置,其特征在于,所述位置信息还包括所述位置数据所属的空间标识。
14.如权利要求8所述的装置,其特征在于,在所述待识别对象的数量为至少两个时,所述装置还包括聚类单元;
所述聚类单元,用于采用预设聚类算法,对所述多个待识别对象的每个时刻的位置信息进行聚类,得到所述每个时刻的至少一个对象集合;
所述确定单元,还用于若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体跟随行为;
若第一对象集合与相邻时刻的第二对象集合包含预设数量的相同待识别对象,且所述第一对象集合的平均速度不大于预设速度阈值,则确定所述第一对象集合中每个待识别对象的行为类型为群体聚集行为。
15.一种电子设备,其特征在于,所述电子设备包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存储的程序时,实现权利要求1-7任一所述的方法步骤。
16.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-7任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010166577.5A CN111325292B (zh) | 2020-03-11 | 2020-03-11 | 一种对象行为的识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010166577.5A CN111325292B (zh) | 2020-03-11 | 2020-03-11 | 一种对象行为的识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111325292A true CN111325292A (zh) | 2020-06-23 |
CN111325292B CN111325292B (zh) | 2023-05-02 |
Family
ID=71173227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010166577.5A Active CN111325292B (zh) | 2020-03-11 | 2020-03-11 | 一种对象行为的识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111325292B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914657A (zh) * | 2020-07-06 | 2020-11-10 | 浙江大华技术股份有限公司 | 一种宠物行为检测方法、装置、电子设备及存储介质 |
CN112651308A (zh) * | 2020-12-14 | 2021-04-13 | 北京市商汤科技开发有限公司 | 对象识别追踪的方法、装置、电子设备和存储介质 |
CN115215185A (zh) * | 2022-07-11 | 2022-10-21 | 广州广日电梯工业有限公司 | 基于机器视觉的电梯关门控制方法、系统、装置及介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8010402B1 (en) * | 2002-08-12 | 2011-08-30 | Videomining Corporation | Method for augmenting transaction data with visually extracted demographics of people using computer vision |
CN106778854A (zh) * | 2016-12-07 | 2017-05-31 | 西安电子科技大学 | 基于轨迹和卷积神经网络特征提取的行为识别方法 |
CN107025420A (zh) * | 2016-01-29 | 2017-08-08 | 中兴通讯股份有限公司 | 视频中人体行为识别的方法和装置 |
KR20180020376A (ko) * | 2016-08-18 | 2018-02-28 | 고려대학교 산학협력단 | 행동 패턴 인식 장치, 행동 패턴 인식 방법 및 행동 패턴 분류기 생성 방법 |
CN108229338A (zh) * | 2017-12-14 | 2018-06-29 | 华南理工大学 | 一种基于深度卷积特征的视频行为识别方法 |
CN108805087A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的时序语义融合关联判断子系统 |
CN109255284A (zh) * | 2018-07-10 | 2019-01-22 | 西安理工大学 | 一种基于运动轨迹的3d卷积神经网络的行为识别方法 |
CN109509021A (zh) * | 2018-10-22 | 2019-03-22 | 武汉极意网络科技有限公司 | 基于行为轨迹的异常识别方法、装置、服务器及存储介质 |
CN109711285A (zh) * | 2018-12-11 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 识别模型的训练、测试方法和装置 |
CN110427806A (zh) * | 2019-06-20 | 2019-11-08 | 北京奇艺世纪科技有限公司 | 视频识别方法、装置及计算机可读存储介质 |
CN110610154A (zh) * | 2019-09-10 | 2019-12-24 | 北京迈格威科技有限公司 | 行为识别方法、装置、计算机设备和存储介质 |
CN110738101A (zh) * | 2019-09-04 | 2020-01-31 | 平安科技(深圳)有限公司 | 行为识别方法、装置及计算机可读存储介质 |
US10565460B1 (en) * | 2015-01-13 | 2020-02-18 | State Farm Mutual Automobile Insurance Company | Apparatuses, systems and methods for classifying digital images |
CN110866477A (zh) * | 2019-11-06 | 2020-03-06 | 中国人民解放军战略支援部队信息工程大学 | 一种轨迹运动模式识别方法及装置 |
-
2020
- 2020-03-11 CN CN202010166577.5A patent/CN111325292B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8010402B1 (en) * | 2002-08-12 | 2011-08-30 | Videomining Corporation | Method for augmenting transaction data with visually extracted demographics of people using computer vision |
US10565460B1 (en) * | 2015-01-13 | 2020-02-18 | State Farm Mutual Automobile Insurance Company | Apparatuses, systems and methods for classifying digital images |
CN107025420A (zh) * | 2016-01-29 | 2017-08-08 | 中兴通讯股份有限公司 | 视频中人体行为识别的方法和装置 |
KR20180020376A (ko) * | 2016-08-18 | 2018-02-28 | 고려대학교 산학협력단 | 행동 패턴 인식 장치, 행동 패턴 인식 방법 및 행동 패턴 분류기 생성 방법 |
CN106778854A (zh) * | 2016-12-07 | 2017-05-31 | 西安电子科技大学 | 基于轨迹和卷积神经网络特征提取的行为识别方法 |
CN108229338A (zh) * | 2017-12-14 | 2018-06-29 | 华南理工大学 | 一种基于深度卷积特征的视频行为识别方法 |
CN108805087A (zh) * | 2018-06-14 | 2018-11-13 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的时序语义融合关联判断子系统 |
CN109255284A (zh) * | 2018-07-10 | 2019-01-22 | 西安理工大学 | 一种基于运动轨迹的3d卷积神经网络的行为识别方法 |
CN109509021A (zh) * | 2018-10-22 | 2019-03-22 | 武汉极意网络科技有限公司 | 基于行为轨迹的异常识别方法、装置、服务器及存储介质 |
CN109711285A (zh) * | 2018-12-11 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 识别模型的训练、测试方法和装置 |
CN110427806A (zh) * | 2019-06-20 | 2019-11-08 | 北京奇艺世纪科技有限公司 | 视频识别方法、装置及计算机可读存储介质 |
CN110738101A (zh) * | 2019-09-04 | 2020-01-31 | 平安科技(深圳)有限公司 | 行为识别方法、装置及计算机可读存储介质 |
CN110610154A (zh) * | 2019-09-10 | 2019-12-24 | 北京迈格威科技有限公司 | 行为识别方法、装置、计算机设备和存储介质 |
CN110866477A (zh) * | 2019-11-06 | 2020-03-06 | 中国人民解放军战略支援部队信息工程大学 | 一种轨迹运动模式识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
丁重阳等: "基于时空权重姿态运动特征的人体骨架行为识别研究" * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914657A (zh) * | 2020-07-06 | 2020-11-10 | 浙江大华技术股份有限公司 | 一种宠物行为检测方法、装置、电子设备及存储介质 |
CN111914657B (zh) * | 2020-07-06 | 2023-04-07 | 浙江大华技术股份有限公司 | 一种宠物行为检测方法、装置、电子设备及存储介质 |
CN112651308A (zh) * | 2020-12-14 | 2021-04-13 | 北京市商汤科技开发有限公司 | 对象识别追踪的方法、装置、电子设备和存储介质 |
CN115215185A (zh) * | 2022-07-11 | 2022-10-21 | 广州广日电梯工业有限公司 | 基于机器视觉的电梯关门控制方法、系统、装置及介质 |
CN115215185B (zh) * | 2022-07-11 | 2023-12-19 | 广州广日电梯工业有限公司 | 基于机器视觉的电梯关门控制方法、系统、装置及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111325292B (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6759474B2 (ja) | 深層学習ネットワーク及び平均シフトに基づく船舶自動追跡方法及びシステム | |
Singh et al. | Deep spatio-temporal representation for detection of road accidents using stacked autoencoder | |
CN108803617B (zh) | 轨迹预测方法及装置 | |
CN111709310B (zh) | 一种基于深度学习的手势跟踪与识别方法 | |
US8744125B2 (en) | Clustering-based object classification | |
CN111325292B (zh) | 一种对象行为的识别方法及装置 | |
CN110378259A (zh) | 一种面向监控视频的多目标行为识别方法及系统 | |
Han et al. | Laneformer: Object-aware row-column transformers for lane detection | |
KR20200071799A (ko) | 딥러닝 인공지능 기술을 이용한 객체인식 및 카운팅 방법 | |
CN111881853B (zh) | 一种超大桥隧中异常行为识别方法和装置 | |
CN107564035B (zh) | 基于重要区域识别和匹配的视频跟踪方法 | |
CN108776974A (zh) | 一种适用于公共交通场景的实时目标跟踪方法 | |
CN113420693A (zh) | 一种门状态检测方法、装置、轿厢乘客流量统计方法及设备 | |
CN116434325A (zh) | 一种特定动作的检测方法、装置、设备及存储介质 | |
Zhou et al. | A study on attention-based LSTM for abnormal behavior recognition with variable pooling | |
CN115760921A (zh) | 基于多目标跟踪的行人轨迹预测方法及系统 | |
Harish et al. | Intruder detection by extracting semantic content from surveillance videos | |
Wang et al. | A YOLO-based Method for Improper Behavior Predictions | |
Di Mauro et al. | Estimating the occupancy status of parking areas by counting cars and non-empty stalls | |
Ng et al. | Outdoor illegal parking detection system using convolutional neural network on Raspberry Pi | |
CN107729811B (zh) | 一种基于场景建模的夜间火焰检测方法 | |
CN111403021A (zh) | 一种监测方法及装置 | |
CN111008601A (zh) | 一种基于视频的打架斗殴检测方法 | |
CN116611977A (zh) | 失联人员路径溯源及救援方法和装置 | |
Shahraki et al. | A trajectory based method of automatic counting of cyclist in traffic video data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: No. 160, West Fourth Ring North Road, Haidian District, Beijing Patentee after: China Electronics Engineering Design Institute Co.,Ltd. Country or region after: China Address before: No. 160, West Fourth Ring North Road, Haidian District, Beijing Patentee before: CHINA ELECTRONICS ENGINEERING DESIGN INSTITUTE Co.,Ltd. Country or region before: China |