CN108985195A - 行为识别方法、装置、计算机设备及存储介质 - Google Patents

行为识别方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN108985195A
CN108985195A CN201810698498.1A CN201810698498A CN108985195A CN 108985195 A CN108985195 A CN 108985195A CN 201810698498 A CN201810698498 A CN 201810698498A CN 108985195 A CN108985195 A CN 108985195A
Authority
CN
China
Prior art keywords
target person
data
disaggregated model
activity recognition
place
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810698498.1A
Other languages
English (en)
Inventor
李影
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201810698498.1A priority Critical patent/CN108985195A/zh
Priority to PCT/CN2018/106433 priority patent/WO2020000697A1/zh
Publication of CN108985195A publication Critical patent/CN108985195A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Navigation (AREA)

Abstract

本申请公开了一种行为识别方法、装置、计算机设备以及存储介质,其中,本申请方法部分包括:获取在当前空间场所内终端采集的第一状态数据;根据第一状态数据确定当前空间场所的场景类型;根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;根据定位数据以及位置分类模型确定目标人员的位置类别;确定位置类别对应的目标行为分类模型;通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。可以有效地针对不同空间场所下的人员作出行为预测,可以有效地使得识别等过程具备区域针对性,从而使得行为识别结果比较准确。

Description

行为识别方法、装置、计算机设备及存储介质
技术领域
本申请涉及计算机领域,尤其涉及一种行为识别方法、装置、计算机设备及存储介质。
背景技术
目前,人所处的空间场所越来越多样化,不同空间场所其所在区域特性有各自的特点,呈现出不同的复杂性。例如,常见的区域有,住宅、办公室、小区、学校,商业区等区域。对此,基于上述区域的智能化监控系统也不断出现,例智能楼宇监控系统等。
可以理解,上述空间场所的不同,决定了其区域可能是室内环境,或室外环境,也可以能是室外内融合的单元结构。并且,在不在区域,不同时间上,人员人流高峰、人体生物行为特征也有所不同。现有技术中,有专门对于某个特定区域,例如室外,或室内的人员的行为进行识别、分析以及预测的方法。但是,由前述已经知道,在上述方法中,不同空间场所的复杂性不同,采用一种识别、分析方法,将导致人员定位、识别等过程数据的获取、处理不统一,导致人员的行为分析结果并不准确。
发明内容
基于此,有必要针对上述技术问题,提供一种可以有效地针对不同空间场所下的人员作出行为预测,可以有效地使得识别等过程具备区域针对性,从而使得行为识别结果比较准确的行为识别方法、装置、计算机设备及存储介质。
其中,本申请第一方面提供了一种行为识别方法,包括:
获取在当前空间场所内终端采集的第一状态数据;
根据第一状态数据确定当前空间场所的场景类型;
根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;
根据定位数据以及位置分类模型确定目标人员的位置类别,位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
确定位置类别对应的目标行为分类模型;
通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
本申请第二方面提供了一种行为识别装置,其特征在于,包括:
获取模块,用于获取在当前空间场所内终端采集的第一状态数据;
第一确定模块,用于根据获取模块获取的第一状态数据确定当前空间场所的场景类型;
定位模块,用于根据第一确定模块确定的场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;
第二确定模块,用于根据定位模块定位的定位数据以及位置分类模型确定目标人员的位置类别,位置分类模型用于根据目标人员的定位数据确定出目标人员的位置类别;
第三确定模块,用于根据第二确定模块确定的确定位置类别对应的目标行为分类模型;
识别模块,用于通过第三确定模块确定的目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
本申请第三方面提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述行为识别方法的步骤。
本申请第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述行为识别方法的步骤。
上述行为识别方法、装置、计算机设备及存储介质,获取在当前空间场所内终端采集的第一状态数据;根据第一状态数据确定当前空间场所的场景类型;根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;根据定位数据以及位置分类模型确定目标人员的位置类别;确定位置类别对应的目标行为分类模型;通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果可以有效地针对不同空间场所下的人员作出行为预测,从而有效地使得识别等过程具备区域针对性,使得行为识别结果比较准确。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例中一种行为识别方法的一应用环境示意图;
图2是本申请一实施例中一种行为识别方法的一个流程示例图;
图3是本申请一实施例中行为识别装置的一个实施例结构示例图;
图4是本申请一实施例中计算机设备的一实施例结构示例图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提供的行为识别方法,可应用在如图1所示的应用环境中,如图1所示,包括行为识别装置、空间场所、以及空间场所内的终端,其中,在具体实现中,该行为识别装置可以由独立的计算机设备或多个计算机设备构成的计算机设备集合实现,具体不做限定。该行为识别装置可以与终端中进行通信以获取该终端各类传感器所采集的状态数据,其中,在本方案中,上述空间场所分为三种场景类型,分别为室内场景、室外场景以及室内外融合场景,通常无论室外场景还是室内场景,抑或是室内外融合场景,空间场所内的人员都会随身携带终端,其中,该终端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。可以理解,上述终端通常都具有各种各样的传感器,包括但不局限于光传感器、速度传感器、磁传感器、气压传感器、温度传感器、声音传感器以及陀螺仪等,上述传感器可以有效地采集并记录着当前空间场所下的各种状态数据。例如,上述状态数据可以是当前的湿气、温度、气、转弯频率等各种数据。在本方案中,可以利用当前空间场所内终端的传感器所采集的状态数据以确定出当前空间场所的场景类型,根据场景类型对空间场所内的人员进行行为识别,下面通过具体的实施例对本申请进行介绍。
在一实施例中,如图2所示,图2为本申请实施例一种行为识别方法一个实施例流程示意图,包括如下步骤:
S10、获取当前空间场所内终端的所采集的第一状态数据;
其中,当前空间场所内终端所采集的第一状态数据,上述第一状态数据包括当前的湿气、温度、气压、转弯频率等各种数据。另外,在本方案的一些实现中,可以获取一个或多个的终端所采集的状态数据。这么做的目的在于,由于不同终端内置传感器的类型不一,而内置传感器的使用状况也不确定,通过获取多个终端的传感器所采集的状态数据,可以有效地保证在当前空间场所采集的状态数据更加全面。
S20、根据第一状态数据确定当前空间场所的场景类型;
其中,场景类型为室内场景、或室外场景,或室内外融合场景;在获取了当前空间场所内终端的传感器所采集的第一状态数据后,根据该第一状态数据进一步确定当前空间场所的场景类型。在本方案中,空间场所的类型分为室内场景、室外场景以及室内外融合场景。其中,值得注意的是,室内外融合场景是指在特定区域内,该特定区域即存在室内单元,又包含室外单元的情况,例如,宿舍区域、小区区域等,通常上述室内外融合场景的空间场所,与室外场景、室外场景的空间场所具有不同的区域特性,因此本方案中,将空间场所的场景类型划分为室内场景、室外场景、室内外融合场景有助于后续确定不同的识别方式,也即,在本方案中,根据获取的第一状态数据进一步确定当前空间场所的场景类型是属于室内场景、室外场景或室内外融合场景。
S30、根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为所述空间场所内的其中任意一个人员;
在确定了当前空间场所的场景类型后,进一步根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为所述空间场所内的其中任意一个人员。
S40、根据定位数据以及位置分类模型确定目标人员的位置类别,位置分类模型用于根据目标人员的定位数据确定出目标人员的位置类别;
其中,定位数据与位置类别相对应,位置分类模型用于根据目标人员的定位数据确定出目标人员的位置类别。位置类别是指用于标识目标人员在当前空间场所内的位置。
S50、确定位置类别对应的目标行为分类模型;
本方案中,不同的位置类别对应有不同的目标行为分类模型,在本方案中,可根据目标人员的位置类别确定出该目标人员的位置类别所对应的目标行为分类模型。
S60、通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
在得到目标行为分类模型后,通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
由以上技术方案可知,本申请所提供的行识别方法中,先是获取在当前空间场所内终端采集的第一状态数据;根据第一状态数据确定当前空间场所的场景类型;根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;根据定位数据以及位置分类模型确定目标人员的位置类别;确定位置类别对应的目标行为分类模型;通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果,可以有效地针对不同空间场所下的人员作出行为预测,从而有效地使得识别等过程具备区域针对性,使得行为识别结果比较准确。
在一实施例中,根据状态数据确定当前空间场所的场景类型之前,方法还包括:采集处于室内场景、室外场景以及室内外融合场景内终端的第二状态数据;将第二状态数据作为训练样本数据进行训练以得到用于进行场景类型检测的分类器;根据第一状态数据确定当前空间场所的场景类型,包括:将第一状态数据输入分类器以确定当前空间场所的场景类型。其中,需要说明的是,在本方案中,可采用朴素贝叶斯分类算法、决策树分类算法、支持向量机分类算法以及逻辑回归等分类算法作为上述训练样本数据的分类算法,具体不做限定。在这里提出了其中一种确定当前空间场景的场景类型的方式,是通过先验数据进行训练的方式,由于训练算法比较成熟,训练出来的分类器比较可靠,可以有效地提高确定出的场景类型的准确性。
另外需要说明的是,在本方案的一些实施例中,除了上述确定当前空间场所的场景类型的方式外,还可以有其他的确定方式,例如:根据第一状态数据确定当前空间场所的场景类型,包括:根据第一状态数据确定当前空间场所内某个终端的转弯频率,根据该转弯频率确定当前空间场所内的场景类型。具体的,若确定出来的既存在处于室内的概率为1,也存在处于室外的概率为1,则说明当前的空间场所为室内外融合场景下的空间场所。
在一些方案中,当前空间场所为室内场景的概率的计算方式如下:
其中,f表示当前检测到的转弯频率,σ表示人在单位有效运动时间内能产生的最大转弯次数,C1表示当前空间场所为室内场景的概率,C0表示当前空间场所为室外场景的概率。
当前空间场所为室外场景的概率计算方式如下:
当前空间场所为室外场景的概率C1=1-C1,其中f表示当前检测到的转弯频率,σ表示人在单位有效运动时间t内能产生的最大转弯次数,ε表示对不发生转弯时间段的计数,在没有发生转弯时,ε根据所设置的陀螺仪或加速度传感器采样频率q来计数,每采样一次数据,对应ε加1,每当判定发生一次转弯时,对ε进行更新,更新后ε值为原ε值除以最新统计的转弯次数。
从这里可以看出,这里提出了另外一种确定当前空间场所的场景类型的方式,具体是根据当前空间场所内的终端的转弯频率来确定,在该方案中无需通过分类器的方式进行计算,而是简单的通过一个或多个终端的转弯频率的方式来确定,计算量比较小,可以较少计算开销。
在一实施例中,步骤,根据所述定位数据以及位置分类模型确定目标人员的位置类别之前,本方案还包括训练识别模型的步骤,具体地如下所示:
训练所述位置分类模型,以及不同人员位置的行为分类模型cai,所述位置分类模型用于根据人员的定位数据确定出所述人员的位置类别pi。其中,cai∈C,C为行为分类模型构成的集合,C={ca1,ca2,ca3,...,caI},cai与人员的位置类别pi具有一一对应关系,位置类别pi∈P,P为预设的人员位置的集合,P={p1,p2,...,pI},I为预设的人员位置的类别数目。其中,上述I可以根据实际情况进行配置,具体不做限定。也就是说,在本方案中,为空间场所内的人员训练出一位置分类模型cp,并根据不同的位置,训练出不同人员位置的行为分类模型。
在本方案的一些实施方式中,具体地训练人员位置分类模型,以及不同人员位置的行为分类模型cai过程如下:通过获取大量终端内置传感器采集的不同时间窗口的位置数据,和该位置数据下对应的不同人体行为情况下的行为数据;对获取的位置数据和行为数据进行预处理,获得不同时间窗口的位置数据的数据段,对不同时间窗口的位置数据的数据段进行特征提取,获得不同时间窗口的位置数据的数据段所对应的特征向量Vk=[v1,v2,...,vN]∈RN,N特征数目,k∈{1,2,...,K},其中,所有位置下,不同时间窗口的位置数据的数据段提取的特征向量共同构成样本集S,S=[V1,V2,...,VK],特征向量数目K即为数据段数目;对S中的每个特征向量,标记位置数据采集时的位置类别pi,pi∈P,获得位置训练向量VK p=[Vk,pi],k∈{1,2,...,K},标记后的所有训练向量构成位置训练集,利用位置训练集训练位置分类模型从而获得位置分类模型。具体地,上述位置分类模型可采用决策树模型,具体不做限定。
上述对位置分类模型的训练过程大致进行了介绍,这里继续讲明不同位置的行为分类模型pi的训练过程:筛选样本集S中对应位置类别标记为pi的特征向量组成样本子集Si,对样本子集Si中的每个特征向量标记行为数据采集时的行为类别aj,aj∈A,获得行为训练向量Ki∈{1,2,...,Ki},Ki为样本子集Si中特征向量的数目,其中,A为不同位置下人员的行为的集合,标记后的所由训练向量构成行为训练集进行训练以获得对应位置类别为pi的行为分类模型cai。需要说明的是,基于同样的训练方式,分别取i=1,2,...,可以对应训练得到不同位置类别下的行为分类模型ca1,ca2,...,caI,具体这里不重复赘述。需要说明的是,在一些实施方式中,上述行为分类模型为支持向量机分类模型,具体不做限定。
以实际例子为例,假设某空间场所内的人员为10人,采集的行为数据包括行为1、行为2、行为3、行为4、行为5、行为6等6类别。其中,上述欣行为的类别可以自定义,例如走,坐等行为,上述6种行为类别分别记为a1,a2,...,a6,构成行为集合A={a1,a2,...,a6}。采集的位置类别包括位置类别1、位置类别2、位置类别3~位置类别8等8类别,其中,上述位置类别可以自定义,例如门口旁、墙角落、椅上、楼梯或其他自定义的位置,例如分别记为p1,p2,...,p8,则构成人员位置集合P={p1,p2,...,p8},通过上述训练方式,可以获得位置类别包括位置类别1、位置类别2、位置类别3~位置类别8等8类别所训练出的位置分类模型,以及基于上述行为类别,包括行为1、行为2、行为3、行为4、行为5、行为6等6类别,可以训练出上述不同位置,例如位置类别1下所对应的行为分类模型。
在一实施例中,步骤S30中,也即根据空间场所的场景类型对空间场所内的目标人员进行定位以获得定位数据,具体包括:
当场景类型为室内场景时,使用超宽带(Ultra Wide Band,UWB)定位技术对目标人员进行定位以获得定位数据。应理解,超宽带定位技术是一种以极低功率在短距离内高速传输数据的无线通信技术,具有抗干扰性能强、传输速率高、带宽极宽、消耗电能小、通信距离短等优势,因此适用于室内场景的人员的定位。
当场景类型为室外场景时,使用全球卫星定位系统(Global PositioningSystem,GPS)定位技术或全球卫星导航信号的实时动态高精度(Real-Time Differential,RTD)定位技术对目标人员进行定位以获得定位数据。也即,在室外场景时,由于室外场景不具备室内场景的复杂性,干扰较少,因此选择较为成熟的室外定位技术,而不选择如GPS定位技术或RTD定位技术进行定位即可,可以减少系统的开销。
当场景类型为室内外融合场景时,确定地面增强系统(Global NavigationSatellite System,GNNSS)接收的卫星信号是否满足预设条件,若满足,则选用RTD定位技术对目标人员进行定位以获得定位结果;若不满足,则选用UWB对室内外融合场景下的目标人员进行定位以获得定位数据。需要说明的是,在本方案的一些实施方式中,若确定地面增强系统(Global Navigation Satellite System,GNNSS)接收的卫星信号是否满足预设条件,且RTD定位技术不可用的情况,则选用MEMS定位技术对目标人员进行定位。也就是说,在室内外融合场景下,本行为识别方法可根据实际情况择优定位方式进行定位,具有较强的针对性。
其中,需要说明的是,确定GNNSS接收的卫星信号是否满足预设条件,包括:确定GNN系统接收的卫星信号的信噪比是否高于20dB-Hz,若高于20dB-Hz,则确定卫星信号满足预设条件;或,确定发射卫星信号的发射卫星的数目是否大于或等于4,若大于或等于4,则确定卫星信号满足预设条件。需要说明的是,由于RTD定位方式需要4个卫星数目做支持,因此,当卫星数目少于4颗的时候,RTD定位方式不可用;另一种情况为即使卫星数目大于4颗,当由于受到遮挡屏蔽等环境影响可能会使得卫星信噪比很弱,根据先验数据知道,一般在20dB-Hz以下的时候,RTD定位方式也不可用,因此,在本方案中,在室内外融合场景下,当RTD定位方式不可用时,则选用UWB定位技术对目标人员进行定位。
由此可见,在上述不同空间场所的场景类型下,综合利用GNSS、RTD定位技术、UWB定位技术和MEMS定位技术进行有效集成组合,可以根据卫星信号的强弱有效的选择合适的定位方式,从而,在室内场景、室外场景,以及室内外融合场景下,可以选择合适的定位方式。从另一方面看,在本申请中,可以根据空间场所的场景类型,可以定制化提供价值不同的梯度化的定位方式,提高了本方案的适用性。
其中,在一些实施例中,步骤S40,也即根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,具体包括如下步骤:
S41、对定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
其中,在获取了定位数据后,对定位数据进行校正、滤波等预处理,可以滤掉部分干扰信息,并获取得到当前时间窗口对应的第一数据段。
S42、对第一数据段进行特征提取,得到第一数据段对应的特征向量Vp
在得到当前时间窗口对应的第一数据段后,对该第一数据段进行特征提取从而获得特征向量Vp
S43、将特征向量Vp输入位置分类模型cp以获得目标人员的位置类别pi。
在获得特征向量Vp后,将该特征向量Vp输入位置分类模型cp以获得目标人员的位置类别pi。
由本实施例可得,提出了一种具体的根据目标人员的位置确定出目标人员的位置类别的方式,提高了方案的可实施性。
在一实施例中,步骤S60,也即通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果,具体包括如下步骤:
S61、获取目标人员的行为数据,对行为数据进行数据预处理以获得当前时间窗口对应的第二数据段;
其中,在获取了行为数据后,对行为数据进行校正、滤波等预处理,可以滤掉部分干扰信息,并获取得到当前时间窗口对应的第二数据段。
S62、对第二数据段进行特征提取,得到第二数据段对应的特征向量Va
S63、将所述特征向量Va输入目标行为分类模型cai以输出行为类别aj,aj∈A,A为预设的行为构成的集合,A={a1,a2,...,aJ},J为预设的行为类别数目,aj为所述目标人员的行为识别结果。
由以上技术方案可知,本申请所提供的行识别方法中,先是获取在当前空间场所内终端采集的第一状态数据;根据第一状态数据确定当前空间场所的场景类型;根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;根据定位数据以及位置分类模型确定目标人员的位置类别;确定位置类别对应的目标行为分类模型;通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果,可以有效地针对不同空间场所下的人员作出行为预测,从而有效地使得识别等过程具备区域针对性,使得行为识别结果比较准确。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
在一实施例中,提供一种行为识别装置,该行为识别装置与上述实施例中的行为识别方法一一对应。如图3所示,该行为识别装置3包括获取模块31、第一确定模块32、定位模块33、第二确定模块34、第三确定模块35以及识别模块36。各功能模块详细说明如下:
获取模块31,用于获取在当前空间场所内终端采集的第一状态数据;
第一确定模块32,用于根据获取模块31获取的第一状态数据确定当前空间场所的场景类型;
定位模块33,用于根据第一确定模块32确定的场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;
第二确定模块34,用于根据定位模块33定位的定位数据以及位置分类模型确定目标人员的位置类别,位置分类模型用于根据目标人员的定位数据确定出目标人员的位置类别;
第三确定模块35,用于根据第二确定模块34确定的确定位置类别对应的目标行为分类模型;
识别模块36,用于通过第三确定模块35确定的目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
在一实施例,第二确定模块34具体用于:
对定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
对第一数据段进行特征提取,得到第一数据段对应的特征向量Vp
将特征向量Vp输入位置分类模型以获得目标人员的位置类别。
在一实施例中,识别模块36通具体用于:
获取目标人员的行为数据,对行为数据进行数据预处理以获得当前时间窗口对应的第二数据段;
对第二数据段进行特征提取,得到第二数据段对应的特征向量Va
将特征向量Va输入目标行为分类模型cai以输出行为类别aj,aj∈A,A为预设的行为构成的集合,A={a1,a2,...,aJ},J为预设的行为类别数目,aj为目标人员的行为识别结果。
在一实施例中,行为识别装置还包括:
训练模块,用于第二确定模块34根据定位模块33定位的定位数据以及位置分类模型确定目标人员的位置类别之前,训练位置分类模型,以及不同人员位置的行为分类模型cai,cai∈C,C为行为分类模型构成的集合,C={ca1,ca2,ca3,...,caI},cai与人员的位置类别pi具有一一对应关系,位置类别pi∈P,P为预设的人员位置的集合,P={p1,p2,...,pI},I为预设的人员位置的类别数目。
在一实施例中,所述行为识别装置还包括:
采集模块,用于根据第一状态数据确定当前空间场所的场景类型之前,采集处于室内场景、室外场景以及室内外融合场景内终端的第二状态数据;
所述第一确定模块,用于将第二状态数据作为训练样本数据进行训练以得到用于进行场景类型检测的分类器;将第一状态数据输入分类器以确定当前空间场所的场景类型。
从这里可以看出,本申请所提供的行识别装置中,先是获取在当前空间场所内终端采集的第一状态数据;根据第一状态数据确定当前空间场所的场景类型;根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;根据定位数据以及位置分类模型确定目标人员的位置类别;确定位置类别对应的目标行为分类模型;通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果,可以有效地针对不同空间场所下的人员作出行为预测,从而有效地使得识别等过程具备区域针对性,使得行为识别结果比较准确。
关于行为识别装置的具体限定可以参见上文中对于行为识别方法的限定,在此不再赘述。上述行为识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储上述获取的各种状态数据、行为数据、定位数据以及训练样本数据等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种行为识别方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取在当前空间场所内终端采集的第一状态数据;
根据所述第一状态数据确定所述当前空间场所的场景类型;
根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
确定所述位置类别对应的目标行为分类模型;
通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
需要说明的是,处理器执行计算机程序时所实现的步骤或功能,可以参阅前述方法实施例中的描述,这里不重复赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取在当前空间场所内终端采集的第一状态数据;
根据所述第一状态数据确定所述当前空间场所的场景类型;
根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
确定所述位置类别对应的目标行为分类模型;
通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
同理需要说明的是,该计算机程序被处理器执行时所实现的步骤或功能,可以参阅前述方法实施例中的描述,这里不重复赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种行为识别方法,其特征在于,包括:
获取在当前空间场所内终端采集的第一状态数据;
根据所述第一状态数据确定所述当前空间场所的场景类型;
根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
确定所述位置类别对应的目标行为分类模型;
通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
2.如权利要求1所述的行为识别方法,其特征在于,所述根据所述定位数据以及位置分类模型确定所述目标人员的位置类别之前,所述方法还包括:
训练所述位置分类模型,以及不同人员位置的行为分类模型cai,所述cai∈C,所述C为行为分类模型构成的集合,所述C={ca1,ca2,ca3,...,caI},所述cai与人员的位置类别pi具有一一对应关系,所述位置类别pi∈P,所述P为预设的人员位置的集合,所述P={p1,p2,...,pI},所述I为预设的人员位置的类别数目。
3.如权利要求1或2任一项所述的行为识别方法,其特征在于,所述根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,包括:
对所述定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
对所述第一数据段进行特征提取,得到所述第一数据段对应的特征向量Vp
将所述特征向量Vp输入所述位置分类模型以获得所述目标人员的位置类别。
4.如权利要求3所述的行为识别方法,其特征在于,通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果,包括:
获取所述目标人员的行为数据,对所述行为数据进行数据预处理以获得所述当前时间窗口对应的第二数据段;
对所述第二数据段进行特征提取,得到所述第二数据段对应的特征向量Va
将所述特征向量Va输入所述目标行为分类模型cai以输出行为类别aj,aj∈A,所述A为预设的行为构成的集合,所述A={a1,a2,...,aJ},所述J为预设的行为类别数目,aj为所述目标人员的行为识别结果。
5.如权利要求1或2所述的行为识别方法,其特征在于,所述根据所述第一状态数据确定当前空间场所的场景类型之前,所述方法还包括:
采集处于所述室内场景、室外场景以及室内外融合场景内终端的第二状态数据;
将所述第二状态数据作为训练样本数据进行训练以得到用于进行场景类型检测的分类器;
所述根据所述第一状态数据确定当前空间场所的场景类型,包括:
将所述第一状态数据输入所述分类器以确定所述当前空间场所的场景类型。
6.一种行为识别装置,其特征在于,包括:
获取模块,用于获取在当前空间场所内终端采集的第一状态数据;
第一确定模块,用于根据所述获取模块获取的所述第一状态数据确定所述当前空间场所的场景类型;
定位模块,用于根据所述第一确定模块确定的所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
第二确定模块,用于根据所述定位模块定位的定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
第三确定模块,用于根据所述第二确定模块确定的确定所述位置类别对应的目标行为分类模型;
识别模块,用于通过所述第三确定模块确定的所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
7.如权利要求6所述的行为识别装置,其特征在于,所述行为识别装置还包括:
训练模块,用于所述第二确定模块根据所述定位模块定位的定位数据以及位置分类模型确定所述目标人员的位置类别之前,训练所述位置分类模型,以及不同人员位置的行为分类模型cai,所述cai∈C,所述C为行为分类模型构成的集合,所述C={ca1,ca2,ca3,...,caI},所述cai与人员的位置类别pi具有一一对应关系,所述位置类别pi∈P,所述P为预设的人员位置的集合,所述P={p1,p2,...,pI},所述I为预设的人员位置的类别数目。
8.如权利要求6或7所述的行为识别装置,其特征在于,所述第二确定模块具体用于:
对所述定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
对所述第一数据段进行特征提取,得到所述第一数据段对应的特征向量Vp
将所述特征向量Vp输入所述位置分类模型以获得所述目标人员的位置类别。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述行为识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述行为识别方法的步骤。
CN201810698498.1A 2018-06-29 2018-06-29 行为识别方法、装置、计算机设备及存储介质 Withdrawn CN108985195A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810698498.1A CN108985195A (zh) 2018-06-29 2018-06-29 行为识别方法、装置、计算机设备及存储介质
PCT/CN2018/106433 WO2020000697A1 (zh) 2018-06-29 2018-09-19 行为识别方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810698498.1A CN108985195A (zh) 2018-06-29 2018-06-29 行为识别方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN108985195A true CN108985195A (zh) 2018-12-11

Family

ID=64539551

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810698498.1A Withdrawn CN108985195A (zh) 2018-06-29 2018-06-29 行为识别方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN108985195A (zh)
WO (1) WO2020000697A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111243742A (zh) * 2020-01-14 2020-06-05 中科海微(北京)科技有限公司 一种能够分析儿童用眼习惯的智能眼镜
CN111428545A (zh) * 2019-01-10 2020-07-17 北京嘀嘀无限科技发展有限公司 行为判断方法、装置及电子设备
CN111796315A (zh) * 2020-06-30 2020-10-20 中国人民解放军军事科学院国防科技创新研究院 无人机室内外的定位方法及装置
CN112711755A (zh) * 2020-12-26 2021-04-27 重庆扬成大数据科技有限公司 科技特派员通过云平台进行信息筛选工作方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111652304B (zh) * 2020-05-28 2023-04-07 浙江大华技术股份有限公司 人员亲密度分析方法、终端及存储介质
CN111914657B (zh) * 2020-07-06 2023-04-07 浙江大华技术股份有限公司 一种宠物行为检测方法、装置、电子设备及存储介质
CN115668989B (zh) * 2021-04-23 2024-04-02 荣耀终端有限公司 一种场景识别方法及电子设备
CN113784291A (zh) * 2021-07-23 2021-12-10 广东电网有限责任公司广州供电局 基于网关的电力人员定位方法、装置、网关设备和介质
CN114136304A (zh) * 2021-11-29 2022-03-04 全球能源互联网研究院有限公司 一种面向电网场景的定位方法及系统
CN115795354B (zh) * 2023-02-06 2023-04-25 北京志翔科技股份有限公司 三合一场所的识别方法和识别装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101742255B (zh) * 2009-12-04 2012-01-25 福建省电力有限公司 电力现场作业视频自动监控系统
CN102682041B (zh) * 2011-03-18 2014-06-04 日电(中国)有限公司 用户行为识别设备及方法
CN103942575A (zh) * 2014-04-02 2014-07-23 公安部第三研究所 基于场景和马尔科夫逻辑网的智能行为分析系统及方法
CN105678222B (zh) * 2015-12-29 2019-05-31 浙江大学 一种基于移动设备的人体行为识别方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428545A (zh) * 2019-01-10 2020-07-17 北京嘀嘀无限科技发展有限公司 行为判断方法、装置及电子设备
CN111243742A (zh) * 2020-01-14 2020-06-05 中科海微(北京)科技有限公司 一种能够分析儿童用眼习惯的智能眼镜
CN111243742B (zh) * 2020-01-14 2023-08-25 中科海微(北京)科技有限公司 一种能够分析儿童用眼习惯的智能眼镜
CN111796315A (zh) * 2020-06-30 2020-10-20 中国人民解放军军事科学院国防科技创新研究院 无人机室内外的定位方法及装置
CN112711755A (zh) * 2020-12-26 2021-04-27 重庆扬成大数据科技有限公司 科技特派员通过云平台进行信息筛选工作方法

Also Published As

Publication number Publication date
WO2020000697A1 (zh) 2020-01-02

Similar Documents

Publication Publication Date Title
CN108985195A (zh) 行为识别方法、装置、计算机设备及存储介质
JP7154295B2 (ja) 無線信号の特性の機械学習に基づく動き検出
Gutierrez-Galan et al. Embedded neural network for real-time animal behavior classification
CN106568445B (zh) 基于双向循环神经网络的室内轨迹预测方法
CN105307121B (zh) 一种信息处理方法及装置
CN104394588B (zh) 基于Wi‑Fi指纹和多维尺度分析的室内定位方法
CN104239453B (zh) 数据处理方法及装置
CN107727095A (zh) 基于谱聚类和加权反向传播神经网络的3d室内定位方法
KR101954930B1 (ko) 와이파이 신호세기를 이용한 실내 지도 학습 방법 및 시스템
US20110191078A1 (en) Calibration of Stream Models and Stream Simulation Tools
CN110413655B (zh) 一种基于改进隐马尔科夫模型的楼层识别方法
Khassanov et al. Finer-level sequential wifi-based indoor localization
Akilandeswari et al. Design and development of an indoor navigation system using denoising autoencoder based convolutional neural network for visually impaired people
CN107133689B (zh) 一种位置标记方法
CN111405461A (zh) 一种优化等间隔指纹采样个数的无线室内定位方法
Milotta et al. Egocentric visitors localization in natural sites
CN105636102B (zh) 一种基于贝叶斯后验概率的定位方法及装置
Vaisenberg et al. Scheduling sensors for monitoring sentient spaces using an approximate POMDP policy
CN109379713A (zh) 基于集成极限学习机和主成分分析的楼层预测方法
CN116311357A (zh) 基于MBN-Transformer模型的不平衡牛身数据的双边识别方法
Semenov et al. Machine learning estimation of COVID-19 social distance using smartphone sensor data
Keser et al. A priori verification and validation study of RFKON database
JP2017037649A (ja) オブジェクト分析方法、オブジェクト分析機器及びオブジェクト分析システム
GB2434504A (en) Pattern Recognition Systems
Choujaa et al. Activity recognition from mobile phone data: State of the art, prospects and open problems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20181211