WO2020000697A1 - 行为识别方法、装置、计算机设备及存储介质 - Google Patents

行为识别方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
WO2020000697A1
WO2020000697A1 PCT/CN2018/106433 CN2018106433W WO2020000697A1 WO 2020000697 A1 WO2020000697 A1 WO 2020000697A1 CN 2018106433 W CN2018106433 W CN 2018106433W WO 2020000697 A1 WO2020000697 A1 WO 2020000697A1
Authority
WO
WIPO (PCT)
Prior art keywords
behavior
data
target person
classification model
category
Prior art date
Application number
PCT/CN2018/106433
Other languages
English (en)
French (fr)
Inventor
李影
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2020000697A1 publication Critical patent/WO2020000697A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Definitions

  • the present application relates to the field of computers, and in particular, to a method, a device, a computer device, and a storage medium for identifying behaviors.
  • the difference of the above-mentioned space places determines that its area may be an indoor environment or an outdoor environment, or it may be a unit structure integrated indoor and outdoor.
  • the peak flow of people and human biological behavior characteristics are also different.
  • the complexity of different spatial places is different. Using an identification and analysis method will lead to inconsistent acquisition and processing of process data such as personnel positioning and identification, resulting in the analysis of personnel behavior Not accurate.
  • the first aspect of the present application provides a behavior recognition method, including:
  • Determining the position category of the target person according to the positioning data and the position classification model, and the position classification model is used to determine the position category of the target person according to the positioning data of the target person;
  • the target person's behavior recognition is performed through the target behavior classification model to obtain the target person's behavior recognition result.
  • a second aspect of the present application provides a behavior recognition device, which is characterized by including:
  • An acquisition module configured to acquire first state data collected by a terminal in a current space location
  • a first determining module configured to determine a scene type of a current space location according to the first state data obtained by the obtaining module
  • a positioning module configured to locate a target person in the space according to the scenario type determined by the first determination module to obtain positioning data, where the target person is any one of the persons in the space;
  • a second determining module configured to determine a position category of the target person according to the positioning data positioned by the positioning module and a position classification model, and the position classification model is used to determine the position category of the target person according to the positioning data of the target person;
  • a third determining module configured to classify the target behavior classification model corresponding to the determined position category determined by the second determining module
  • a recognition module configured to perform behavior recognition on the target person through the target behavior classification model determined by the third determination module to obtain a behavior recognition result of the target person.
  • a third aspect of the present application provides a computer device, including a memory, a processor, and computer-readable instructions stored in the memory and executable on the processor, wherein the processor executes the processor
  • the computer-readable instructions implement the following steps:
  • a fourth aspect of the present application provides one or more non-volatile readable storage media storing computer-readable instructions, wherein the computer-readable instructions, when executed by one or more processors, cause the One or more processors perform the following steps:
  • FIG. 1 is a schematic diagram of an application environment of a behavior recognition method according to an embodiment of the present application
  • FIG. 2 is a flowchart illustrating a behavior recognition method in an embodiment of the present application
  • FIG. 3 is a structural example diagram of an embodiment of a behavior recognition device in an embodiment of the present application.
  • FIG. 4 is a structural example diagram of an embodiment of a computer device in an embodiment of the present application.
  • the behavior recognition method provided in this application may be applied in the application environment shown in FIG. 1, as shown in FIG. 1, including a behavior recognition device, a space place, and a terminal in the space place.
  • the The behavior recognition device may be implemented by an independent computer device or a computer device set composed of multiple computer devices, which is not specifically limited.
  • the behavior recognition device can communicate with the terminal to obtain status data collected by various sensors of the terminal.
  • the above-mentioned space is divided into three scene types, which are indoor scene, outdoor scene, and indoor and outdoor. Converged scenes, no matter whether they are outdoor or indoor scenes, or indoor and outdoor scenes, people in the space will carry the terminal with them.
  • the terminal can be but not limited to various personal computers, laptops, smartphones, tablets and Portable wearable device.
  • the above-mentioned terminals usually have various sensors, including but not limited to light sensors, speed sensors, magnetic sensors, air pressure sensors, temperature sensors, sound sensors, and gyroscopes.
  • the above sensors can effectively collect and record Various status data in the current space.
  • the above-mentioned status data may be various data such as the current humidity, temperature, air, and turning frequency.
  • the state data collected by the sensors in the current space place can be used to determine the scene type of the current space place, and the behavior recognition of the people in the space place is performed according to the scene type.
  • FIG. 2 is a schematic flowchart of an embodiment of a behavior recognition method according to an embodiment of the present application, including the following steps:
  • the first state data collected by the terminal in the current space location includes the current humidity, temperature, air pressure, turning frequency, and other various data.
  • status data collected by one or more terminals may be acquired. The purpose of this is that because the types of sensors built in different terminals are different, and the use status of the built-in sensors is also uncertain, by acquiring the status data collected by the sensors of multiple terminals, the status collected in the current space can be effectively guaranteed The data is more comprehensive.
  • the scene type is an indoor scene, or an outdoor scene, or an indoor and outdoor fusion scene.
  • the scene of the current space place is further determined according to the first state data.
  • the types of space places are divided into indoor scenes, outdoor scenes, and indoor and outdoor fusion scenes.
  • the indoor-outdoor fusion scene refers to the situation where there are both indoor units and outdoor units in a specific area, such as dormitory areas, residential areas, etc.
  • the spaces of the indoor-outdoor fusion scenes mentioned above Places have different regional characteristics from outdoor scenes and spatial places of outdoor scenes.
  • dividing the scene type of the spatial place into indoor scenes, outdoor scenes, and indoor and outdoor fusion scenes helps to determine different recognition methods in the future. That is, in this solution, it is further determined whether the scene type of the current space location belongs to an indoor scene, an outdoor scene, or an indoor-outdoor fusion scene according to the obtained first state data.
  • the target person in the space place is further located according to the scene type to obtain positioning data, where the target person is any one of the people in the space place.
  • S40 Determine the position category of the target person according to the positioning data and the position classification model.
  • the position classification model is used to determine the position category of the target person according to the positioning data of the target person.
  • the positioning data corresponds to the location category
  • the location classification model is used to determine the location category of the target person according to the location data of the target person.
  • the location category refers to the location of the target person in the current space.
  • a target behavior classification model corresponding to the position category of the target person can be determined according to the position category of the target person.
  • the target person's behavior recognition is performed through the target behavior classification model to obtain the target person's behavior recognition result.
  • the row identification method provided in the present application, first the first state data collected by the terminal in the current space place is obtained; the scene type of the current space place is determined according to the first state data; and the space place is determined according to the scene type.
  • Target people within the location to obtain positioning data where the target person is any one of the people in the space; determine the location category of the target person based on the location data and the location classification model; determine the target behavior classification model corresponding to the location category;
  • the target behavior classification model recognizes the target person's behavior to obtain the target person's behavior recognition results. It can effectively make behavior predictions for people in different space places, thereby effectively making the identification and other processes regionally targeted and making the behavior recognition results. More accurate.
  • the method before determining the scene type of the current space location according to the state data, the method further includes: collecting second state data of the terminal in the indoor scene, the outdoor scene, and the indoor-outdoor fusion scene; using the second state data as a training sample
  • the data is trained to obtain a classifier for scene type detection; determining the scene type of the current space place according to the first state data includes: entering the first state data into the classifier to determine the scene type of the current space place.
  • classification algorithms such as Naive Bayes classification algorithm, decision tree classification algorithm, support vector machine classification algorithm, and logistic regression can be used as the classification algorithm for the training sample data.
  • One of the methods for determining the scene type of the current spatial scene is presented here. It is a method of training through prior data. Since the training algorithm is more mature, the trained classifier is more reliable, which can effectively improve the determined scene type. Accuracy.
  • determining the scene type of the current space location according to the first state data Includes: determining a turning frequency of a terminal in the current space place according to the first state data, and determining a scene type in the current space place according to the turning frequency. Specifically, if it is determined that both the probability of being in the room is 1 and the probability of being in the outdoor is 1, it indicates that the current space place is a space place in an indoor-outdoor fusion scene.
  • the probability of the current space location being an indoor scene is calculated as follows:
  • f represents the currently detected turning frequency
  • represents the maximum number of turns that a person can make within a unit of effective exercise time
  • C 1 represents the probability of the current space location being an indoor scene
  • C 0 represents the probability of the current space location being an outdoor scene.
  • the calculation method of the probability that the current space place is an outdoor scene is as follows:
  • is counted according to the set sampling frequency q of the gyroscope or acceleration sensor. Each time the data is sampled, it corresponds to ⁇ plus 1.
  • is updated and updated.
  • the posterior epsilon value is divided by the original epsilon value by the latest count of turns.
  • this solution further includes the step of training a recognition model, as follows:
  • the position classification model is used to determine the position category pi of the person according to the positioning data of the person.
  • the above-mentioned I can be configured according to actual conditions, and is not specifically limited. That is, in this solution, a position classification model cp is trained for personnel in a space, and behavior classification models for different personnel positions are trained according to different positions.
  • specifically training the personnel location classification model and the behavior classification model cai process of different personnel positions are as follows: by acquiring a large number of position data collected by the terminal's built-in sensors in different time windows, and corresponding to the position data Behavior data under different human behavior situations; pre-process the acquired position data and behavior data to obtain data segments of position data in different time windows, and perform feature extraction on data segments of position data in different time windows to obtain different times
  • the feature vector V k corresponding to the data segment of the position data of the window [v 1, v 2 , ..., v N ] ⁇ R N , the number of N features, k ⁇ ⁇ 1,2, ..., K ⁇
  • the above-mentioned location classification model may adopt a decision tree model, which is not specifically limited.
  • the training process of the position classification model is introduced in the above.
  • the training process of the behavior classification model pi in different positions is described.
  • the feature vector corresponding to the position category labeled pi in the sample set S is used to form a sample subset S i .
  • K i is the number of feature vectors in the sample subset S i , where A is the set of behaviors of people at different positions, and the labeled training vectors form the behavior training set for training to obtain the corresponding positions.
  • the behavior data collected includes behavior 1, behavior 2, behavior 3, behavior 4, behavior 5, behavior 6, and other 6 categories.
  • the categories of the above-mentioned behaviors can be customized, such as walking, sitting, etc.
  • the position category can be obtained including position category 1, position category 2.
  • step S30 that is, locating the target person in the space according to the scene type of the space to obtain positioning data, which specifically includes:
  • Ultra Wide Band positioning technology is used to locate the target person to obtain positioning data. It should be understood that ultra-wideband positioning technology is a wireless communication technology that transmits data at high speed over short distances with very low power. It has the advantages of strong anti-interference performance, high transmission rate, extremely wide bandwidth, low power consumption, and short communication distance. Therefore, it is suitable for the positioning of personnel in indoor scenes.
  • GPS Global Positioning System
  • RTD Real-Time Differential
  • the scene type is an indoor and outdoor fusion scene
  • GNSS Global Augmentation Satellite System
  • MEMS positioning is selected. Technology locates the target person. That is to say, in the indoor and outdoor fusion scenario, this behavior recognition method can be used for positioning based on the actual situation, which has strong pertinence.
  • determining whether the satellite signal received by the GNNSS meets preset conditions includes: determining whether the signal-to-noise ratio of the satellite signal received by the GNN system is higher than 20dB-Hz, and if it is higher than 20dB-Hz, determining the satellite signal Satisfy a preset condition; or, determine whether the number of transmitting satellites transmitting a satellite signal is greater than or equal to 4, and if it is greater than or equal to 4, determine that the satellite signal meets the preset condition.
  • the RTD positioning method requires 4 satellites for support, when the number of satellites is less than 4, the RTD positioning method is not available; the other case is that even if the number of satellites is greater than 4, Environmental influences such as occlusion may make the satellite signal-to-noise ratio very weak. According to prior data, it is known that the RTD positioning method is generally unavailable below 20dB-Hz. Therefore, in this solution, in indoor and outdoor fusion scenarios When the RTD positioning method is not available, UWB positioning technology is used to locate the target person.
  • step S40 that is, determining the position category of the target person according to the positioning data and the position classification model, specifically includes the following steps:
  • performing preprocessing such as correction and filtering on the positioning data can filter out some interference information and obtain the first data segment corresponding to the current time window.
  • the feature vector V p is input into the position classification model cp to obtain the position category pi of the target person.
  • the feature vector V p is input to the position classification model cp to obtain the position category pi of the target person.
  • step S60 that is, performing behavior recognition on the target person through the target behavior classification model to obtain a behavior recognition result of the target person, specifically includes the following steps:
  • the behavior data is subjected to preprocessing such as correction, filtering, etc., to filter out some interference information, and obtain a second data segment corresponding to the current time window.
  • the row identification method provided in the present application, first the first state data collected by the terminal in the current space place is obtained; the scene type of the current space place is determined according to the first state data; and the space place is determined according to the scene type.
  • Target people within the location to obtain positioning data where the target person is any one of the people in the space; determine the location category of the target person based on the location data and the location classification model; determine the target behavior classification model corresponding to the location category;
  • the target behavior classification model recognizes the target person's behavior to obtain the target person's behavior recognition results. It can effectively make behavior predictions for people in different space places, thereby effectively making the identification and other processes regionally targeted and making the behavior recognition results. More accurate.
  • a behavior recognition device is provided, and the behavior recognition device corresponds to the behavior recognition method in the above embodiment in a one-to-one correspondence.
  • the behavior recognition device 3 includes an acquisition module 31, a first determination module 32, a positioning module 33, a second determination module 34, a third determination module 35, and a recognition module 36.
  • the detailed description of each function module is as follows:
  • An acquisition module 31 configured to acquire first state data collected by a terminal in a current space location
  • a first determining module 32 configured to determine a scene type of a current space location according to the first state data obtained by the obtaining module 31;
  • a positioning module 33 configured to locate a target person in a spatial location according to a scenario type determined by the first determining module 32 to obtain positioning data, where the target person is any one of the personnel in the spatial location;
  • the second determining module 34 is configured to determine the position category of the target person according to the positioning data positioned by the positioning module 33 and the position classification model, and the position classification model is used to determine the position category of the target person according to the positioning data of the target person;
  • a third determining module 35 configured to determine a target behavior classification model corresponding to the determined location category determined by the second determining module 34;
  • the identification module 36 is configured to perform behavior recognition on the target person through the target behavior classification model determined by the third determination module 35 to obtain a behavior recognition result of the target person.
  • the second determining module 34 is specifically configured to:
  • the feature vector V p is input into the position classification model to obtain the position category of the target person.
  • the identification module 36 is specifically configured to:
  • the behavior recognition device further includes:
  • the behavior recognition device further includes:
  • An acquisition module configured to acquire second state data of a terminal in an indoor scene, an outdoor scene, and an indoor-outdoor fusion scene before determining a scene type of a current space location according to the first status data
  • the training module is further configured to train the second state data as training sample data to obtain a classifier for scene type detection;
  • the first determining module is configured to input the first state data into the classifier trained by the training module to determine a scene type of the current space.
  • the row identification device provided in the present application first obtains the first state data collected by the terminal in the current space place; determines the scene type of the current space place according to the first state data; Target people within the location to obtain positioning data, where the target person is any one of the people in the space; determine the location category of the target person based on the location data and the location classification model; determine the target behavior classification model corresponding to the location category;
  • the target behavior classification model recognizes the target person's behavior to obtain the target person's behavior recognition results. It can effectively make behavior predictions for people in different space places, thereby effectively making the identification and other processes regionally targeted and making the behavior recognition results. More accurate.
  • each module in the foregoing behavior recognition device may be implemented in whole or in part by software, hardware, and a combination thereof.
  • the above-mentioned modules may be embedded in the hardware in or independent of the processor in the computer device, or may be stored in the memory of the computer device in the form of software, so that the processor can call and execute the operations corresponding to the above modules.
  • a computer device is provided.
  • the computer device may be a server, and its internal structure diagram may be as shown in FIG. 4.
  • the computer device includes a processor, a memory, a network interface, and a database connected through a system bus.
  • the processor of the computer device is used to provide computing and control capabilities.
  • the memory of the computer device includes a non-volatile storage medium and an internal memory.
  • the non-volatile storage medium stores an operating system, computer-readable instructions, and a database.
  • the internal memory provides an environment for the operation of the operating system and computer-readable instructions in a non-volatile storage medium.
  • the database of the computer equipment is used to store the various status data, behavior data, positioning data, training sample data, etc. obtained as described above.
  • the network interface of the computer device is used to communicate with an external terminal through a network connection.
  • the computer-readable instructions are executed by a processor to implement a method for identifying behaviors.
  • a computer device including a memory, a processor, and computer-readable instructions stored on the memory and executable on the processor.
  • the processor executes the computer-readable instructions, the following steps are implemented:
  • one or more non-volatile readable storage media storing computer readable instructions are provided, and the non readable storage medium stores computer readable instructions, the computer readable instructions When executed by one or more processors, causes the one or more processors to perform the following steps:
  • Non-volatile memory may include read-only memory (ROM), programmable ROM (PROM), electrically programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), or flash memory.
  • Volatile memory can include random access memory (RAM) or external cache memory.
  • RAM is available in various forms, such as static RAM (SRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), dual data rate SDRAM (DDRSDRAM), enhanced SDRAM (ESDRAM), synchronous chain (Synchlink) DRAM (SLDRAM), memory bus (Rambus) direct RAM (RDRAM), direct memory bus dynamic RAM (DRDRAM), and memory bus dynamic RAM (RDRAM).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Navigation (AREA)

Abstract

本申请公开了一种行为识别方法、装置、计算机设备以及存储介质,其中,本申请方法部分包括:获取在当前空间场所内终端采集的第一状态数据;根据第一状态数据确定当前空间场所的场景类型;根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;根据定位数据以及位置分类模型确定目标人员的位置类别;确定位置类别对应的目标行为分类模型;通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。可以有效地针对不同空间场所下的人员作出行为预测,可以有效地使得识别等过程具备区域针对性,从而使得行为识别结果比较准确。

Description

行为识别方法、装置、计算机设备及存储介质
本申请以2018年6月29日提交的申请号为201810698498.1,名称为“行为识别方法、装置、计算机设备及存储介质”的中国发明专利申请为基础,并要求其优先权。
技术领域
本申请涉及计算机领域,尤其涉及一种行为识别方法、装置、计算机设备及存储介质。
背景技术
目前,人所处的空间场所越来越多样化,不同空间场所其所在区域特性有各自的特点,呈现出不同的复杂性。例如,常见的区域有,住宅、办公室、小区、学校,商业区等区域。对此,基于上述区域的智能化监控系统也不断出现,例智能楼宇监控系统等。
可以理解,上述空间场所的不同,决定了其区域可能是室内环境,或室外环境,也可以能是室外内融合的单元结构。并且,在不在区域,不同时间上,人员人流高峰、人体生物行为特征也有所不同。现有技术中,有专门对于某个特定区域,例如室外,或室内的人员的行为进行识别、分析以及预测的方法。但是,由前述已经知道,在上述方法中,不同空间场所的复杂性不同,采用一种识别、分析方法,将导致人员定位、识别等过程数据的获取、处理不统一,导致人员的行为分析结果并不准确。
发明内容
基于此,有必要针对上述技术问题,提供一种可以有效地针对不同空间场所下的人员作出行为预测,可以有效地使得识别等过程具备区域针对性,从而使得行为识别结果比较准确的行为识别方法、装置、计算机设备及存储介质。
其中,本申请第一方面提供了一种行为识别方法,包括:
获取在当前空间场所内终端采集的第一状态数据;
根据第一状态数据确定当前空间场所的场景类型;
根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;
根据定位数据以及位置分类模型确定目标人员的位置类别,位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
确定位置类别对应的目标行为分类模型;
通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
本申请第二方面提供了一种行为识别装置,其特征在于,包括:
获取模块,用于获取在当前空间场所内终端采集的第一状态数据;
第一确定模块,用于根据获取模块获取的第一状态数据确定当前空间场所的场景类型;
定位模块,用于根据第一确定模块确定的场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;
第二确定模块,用于根据定位模块定位的定位数据以及位置分类模型确定目标人员的位置类别,位置分类模型用于根据目标人员的定位数据确定出目标人员的位置类别;
第三确定模块,用于根据第二确定模块确定的确定位置类别对应的目标行为分类模型;
识别模块,用于通过第三确定模块确定的目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
本申请第三方面提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时实现如下步骤:
获取在当前空间场所内终端采集的第一状态数据;
根据所述第一状态数据确定所述当前空间场所的场景类型;
根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
确定所述位置类别对应的目标行为分类模型;
通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
本申请第四方面提供了一个或多个存储有计算机可读指令的非易失性可读存储介质,其特征在于,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器执行如下步骤:
获取在当前空间场所内终端采集的第一状态数据;
根据所述第一状态数据确定所述当前空间场所的场景类型;
根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
确定所述位置类别对应的目标行为分类模型;
通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
本申请的一个或多个实施例的细节在下面的附图和描述中提出,本申请的其他特征和优点将从说明书、附图以及权利要求变得明显。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例中一种行为识别方法的一应用环境示意图;
图2是本申请一实施例中一种行为识别方法的一个流程示例图;
图3是本申请一实施例中行为识别装置的一个实施例结构示例图;
图4是本申请一实施例中计算机设备的一实施例结构示例图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提供的行为识别方法,可应用在如图1所示的应用环境中,如图1所示,包括行为识别装置、空间场所、以及空间场所内的终端,其中,在具体实现中,该行为识别装置可以由独立的计算机设备或多个计算机设备构成的计算机设备集合实现,具体不做限定。该行为识别装置可以与终端中进行通信以获取该终端各类传感器所采集的状态数据,其中,在本方案中,上述空间场所分为三种场景类型,分别为室内场景、室外场景以及室内外融合场景,通常无论室外场景还是室内场景,抑或是室内外融合场景,空间场所内的人员都会随身携带终端,其中,该终端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。可以理解,上述终端通常都具有各种各样的传感器,包括但不局限于光传感器、速度传感器、磁传感器、气压传感器、温度传感器、声音传感器以及陀螺仪等,上述传感器可以有效地采集并记录着当前空间场所下的各种状态数据。例如,上述状态数据可以是当前的湿气、温度、气、转弯频率等各种数据。在本方案中,可以利用当前空间场所内终端的传感器所采集的状态数据以确定出当前空间场所的场景类型,根据场景类型对空间场所内的人员进行行为识别,下面通过具体的实施例对本申请进行介绍。
在一实施例中,如图2所示,图2为本申请实施例一种行为识别方法一个实施例流程示意图,包括如下步骤:
S10、获取当前空间场所内终端的所采集的第一状态数据;
其中,当前空间场所内终端所采集的第一状态数据,上述第一状态数据包括当前的湿气、温度、气压、转弯频率等各种数据。另外,在本方案的一些实现中,可以获取一个或多个的终端所采集的状态数据。这么做的目的在于,由于不同终端内置传感器的类型不一,而内置传感器的使用状况也不确定,通过获取多个终端的传感器所采集的状态数据,可以有效地保证在当前空间场所采集的状态数据更加全面。
S20、根据第一状态数据确定当前空间场所的场景类型;
其中,场景类型为室内场景、或室外场景,或室内外融合场景;在获取了当前空间场所内终端的传感器所采集的第一状态数据后,根据该第一状态数据进一步确定当前空间场所的场景类型。在本方案中,空间场所的类型分为室内场景、室外场景以及室内外融合场景。其中,值得注意的是,室内外融合场景是指在特定区域内,该特定区域即存在室内单元,又包含室外单元的情况,例如,宿舍区域、小区区域等,通常上述室内外融合场景的空间场所,与室外场景、室外场景的空间场所具有不同的区域特性,因此本方案中,将空间场所的场景类型划分为室内场景、室外场景、室内外融合场景有助于后续确定不同的识别方式,也即,在本方案中,根据获取的第一状态数据进一步确定当前空间场所的场景类 型是属于室内场景、室外场景或室内外融合场景。
S30、根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为所述空间场所内的其中任意一个人员;
在确定了当前空间场所的场景类型后,进一步根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为所述空间场所内的其中任意一个人员。
S40、根据定位数据以及位置分类模型确定目标人员的位置类别,位置分类模型用于根据目标人员的定位数据确定出目标人员的位置类别;
其中,定位数据与位置类别相对应,位置分类模型用于根据目标人员的定位数据确定出目标人员的位置类别。位置类别是指用于标识目标人员在当前空间场所内的位置。
S50、确定位置类别对应的目标行为分类模型;
本方案中,不同的位置类别对应有不同的目标行为分类模型,在本方案中,可根据目标人员的位置类别确定出该目标人员的位置类别所对应的目标行为分类模型。
S60、通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
在得到目标行为分类模型后,通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
由以上技术方案可知,本申请所提供的行识别方法中,先是获取在当前空间场所内终端采集的第一状态数据;根据第一状态数据确定当前空间场所的场景类型;根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;根据定位数据以及位置分类模型确定目标人员的位置类别;确定位置类别对应的目标行为分类模型;通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果,可以有效地针对不同空间场所下的人员作出行为预测,从而有效地使得识别等过程具备区域针对性,使得行为识别结果比较准确。
在一实施例中,根据状态数据确定当前空间场所的场景类型之前,方法还包括:采集处于室内场景、室外场景以及室内外融合场景内终端的第二状态数据;将第二状态数据作为训练样本数据进行训练以得到用于进行场景类型检测的分类器;根据第一状态数据确定当前空间场所的场景类型,包括:将第一状态数据输入分类器以确定当前空间场所的场景类型。其中,需要说明的是,在本方案中,可采用朴素贝叶斯分类算法、决策树分类算法、支持向量机分类算法以及逻辑回归等分类算法作为上述训练样本数据的分类算法,具体不做限定。在这里提出了其中一种确定当前空间场景的场景类型的方式,是通过先验数据进行训练的方式,由于训练算法比较成熟,训练出来的分类器比较可靠,可以有效地提高确定出的场景类型的准确性。
另外需要说明的是,在本方案的一些实施例中,除了上述确定当前空间场所的场景类型的方式外,还可以有其他的确定方式,例如:根据第一状态数据确定当前空间场所的场景类型,包括:根据第一状态数据确定当前空间场所内某个终端的转弯频率,根据该转弯频率确定当前空间场所内的场景类型。具体的,若确定出来的既存在处于室内的概率为1,也存在处于室外的概率为1,则说明当前的空间场所为室内外融合场景下的空间场所。
在一些方案中,当前空间场所为室内场景的概率的计算方式如下:
Figure PCTCN2018106433-appb-000001
其中,f表示当前检测到的转弯频率,σ表示人在单位有效运动时间内能产生的最大转弯次数,C 1表示当前空间场所为室内场景的概率,C 0表示当前空间场所为室外场景的概率。
当前空间场所为室外场景的概率计算方式如下:
Figure PCTCN2018106433-appb-000002
当前空间场所为室外场景的概率C 1=1-C 1,其中f表示当前检测到的转弯频率,σ表示人在单位有效运动时间t内能产生的最大转弯次数,ε表示对不发生转弯时间段的计数,在没有发生转弯时,ε根据所设置的陀螺仪或加速度传感器采样频率q来计数,每采样一次数据,对应ε加1,每当判定发生一次转弯时,对ε进行更新,更新后ε值为原ε值除以最新统计的转弯次数。
从这里可以看出,这里提出了另外一种确定当前空间场所的场景类型的方式,具体是根据当前空间场所内的终端的转弯频率来确定,在该方案中无需通过分类器的方式进行计算,而是简单的通过一个或多个终端的转弯频率的方式来确定,计算量比较小,可以较少计算开销。
在一实施例中,步骤,根据所述定位数据以及位置分类模型确定目标人员的位置类别之前,本方案还包括训练识别模型的步骤,具体地如下所示:
训练所述位置分类模型,以及不同人员位置的行为分类模型cai,所述位置分类模型用于根据人员的定位数据确定出所述人员的位置类别pi。其中,cai∈C,C为行为分类模型构成的集合,C={ca1,ca2,ca3,...,caI},cai与人员的位置类别pi具有一一对应关系,位置类别pi∈P,P为预设的人员位置的集合,P={p1,p2,...,pI},I为预设的人员位置的类别数目。其中,上述I可以根据实际情况进行配置,具体不做限定。也就是说,在本方案中,为空间场所内的人员训练出一位置分类模型cp,并根据不同的位置,训练出不同人员位置的行为分类模型。
在本方案的一些实施方式中,具体地训练人员位置分类模型,以及不同人员位置的行为分类模型cai过程如下:通过获取大量终端内置传感器采集的不同时间窗口的位置数据,和该位置数据下对应的不同人体行为情况下的行为数据;对获取的位置数据和行为数据进行预处理,获得不同时间窗口的位置数据的数据段,对不同时间窗口的位置数据的数据段进行特征提取,获得不同时间窗口的位置数据的数据段所对应的特征向量V k=[v 1,v 2,...,v N]∈R N,N特征数目,k∈{1,2,...,K},其中,所有位置下,不同时间窗口的 位置数据的数据段提取的特征向量共同构成样本集S,S=[V 1,V 2,...,V K],特征向量数目K即为数据段数目;对S中的每个特征向量,标记位置数据采集时的位置类别pi,pi∈P,获得位置训练向量V K p=[V k,pi],k∈{1,2,...,K},标记后的所有训练向量构成位置训练集,利用位置训练集训练位置分类模型从而获得位置分类模型。具体地,上述位置分类模型可采用决策树模型,具体不做限定。
上述对位置分类模型的训练过程大致进行了介绍,这里继续讲明不同位置的行为分类模型pi的训练过程:筛选样本集S中对应位置类别标记为pi的特征向量组成样本子集S i,对样本子集S i中的每个特征向量标记行为数据采集时的行为类别aj,aj∈A,获得行为训练向量V Ki a=[V Ki,aj],K i∈{1,2,...,K i},K i为样本子集S i中特征向量的数目,其中,A为不同位置下人员的行为的集合,标记后的所由训练向量构成行为训练集进行训练以获得对应位置类别为pi的行为分类模型cai。需要说明的是,基于同样的训练方式,分别取i=1,2,...,可以对应训练得到不同位置类别下的行为分类模型ca1,ca2,...,caI,具体这里不重复赘述。需要说明的是,在一些实施方式中,上述行为分类模型为支持向量机分类模型,具体不做限定。
以实际例子为例,假设某空间场所内的人员为10人,采集的行为数据包括行为1、行为2、行为3、行为4、行为5、行为6等6类别。其中,上述欣行为的类别可以自定义,例如走,坐等行为,上述6种行为类别分别记为a1,a2,...,a6,构成行为集合A={a1,a2,...,a6}。采集的位置类别包括位置类别1、位置类别2、位置类别3~位置类别8等8类别,其中,上述位置类别可以自定义,例如门口旁、墙角落、椅上、楼梯或其他自定义的位置,例如分别记为p1,p2,...,p8,则构成人员位置集合P={p1,p2,...,p8},通过上述训练方式,可以获得位置类别包括位置类别1、位置类别2、位置类别3~位置类别8等8类别所训练出的位置分类模型,以及基于上述行为类别,包括行为1、行为2、行为3、行为4、行为5、行为6等6类别,可以训练出上述不同位置,例如位置类别1下所对应的行为分类模型。
在一实施例中,步骤S30中,也即根据空间场所的场景类型对空间场所内的目标人员进行定位以获得定位数据,具体包括:
当场景类型为室内场景时,使用超宽带(Ultra Wide Band,UWB)定位技术对目标人员进行定位以获得定位数据。应理解,超宽带定位技术是一种以极低功率在短距离内高速传输数据的无线通信技术,具有抗干扰性能强、传输速率高、带宽极宽、消耗电能小、通信距离短等优势,因此适用于室内场景的人员的定位。
当场景类型为室外场景时,使用全球卫星定位系统(Global Positioning System,GPS) 定位技术或全球卫星导航信号的实时动态高精度(Real-Time Differential,RTD)定位技术对目标人员进行定位以获得定位数据。也即,在室外场景时,由于室外场景不具备室内场景的复杂性,干扰较少,因此选择较为成熟的室外定位技术,而不选择如GPS定位技术或RTD定位技术进行定位即可,可以减少系统的开销。
当场景类型为室内外融合场景时,确定地面增强系统(Global Navigation Satellite System,GNNSS)接收的卫星信号是否满足预设条件,若满足,则选用RTD定位技术对目标人员进行定位以获得定位结果;若不满足,则选用UWB对室内外融合场景下的目标人员进行定位以获得定位数据。需要说明的是,在本方案的一些实施方式中,若确定地面增强系统(Global Navigation Satellite System,GNNSS)接收的卫星信号是否满足预设条件,且RTD定位技术不可用的情况,则选用MEMS定位技术对目标人员进行定位。也就是说,在室内外融合场景下,本行为识别方法可根据实际情况择优定位方式进行定位,具有较强的针对性。
其中,需要说明的是,确定GNNSS接收的卫星信号是否满足预设条件,包括:确定GNN系统接收的卫星信号的信噪比是否高于20dB-Hz,若高于20dB-Hz,则确定卫星信号满足预设条件;或,确定发射卫星信号的发射卫星的数目是否大于或等于4,若大于或等于4,则确定卫星信号满足预设条件。需要说明的是,由于RTD定位方式需要4个卫星数目做支持,因此,当卫星数目少于4颗的时候,RTD定位方式不可用;另一种情况为即使卫星数目大于4颗,当由于受到遮挡屏蔽等环境影响可能会使得卫星信噪比很弱,根据先验数据知道,一般在20dB-Hz以下的时候,RTD定位方式也不可用,因此,在本方案中,在室内外融合场景下,当RTD定位方式不可用时,则选用UWB定位技术对目标人员进行定位。
由此可见,在上述不同空间场所的场景类型下,综合利用GNSS、RTD定位技术、UWB定位技术和MEMS定位技术进行有效集成组合,可以根据卫星信号的强弱有效的选择合适的定位方式,从而,在室内场景、室外场景,以及室内外融合场景下,可以选择合适的定位方式。从另一方面看,在本申请中,可以根据空间场所的场景类型,可以定制化提供价值不同的梯度化的定位方式,提高了本方案的适用性。
其中,在一些实施例中,步骤S40,也即根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,具体包括如下步骤:
S41、对定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
其中,在获取了定位数据后,对定位数据进行校正、滤波等预处理,可以滤掉部分干扰信息,并获取得到当前时间窗口对应的第一数据段。
S42、对第一数据段进行特征提取,得到第一数据段对应的特征向量V p
在得到当前时间窗口对应的第一数据段后,对该第一数据段进行特征提取从而获得特征向量V p
S43、将特征向量V p输入位置分类模型cp以获得目标人员的位置类别pi。
在获得特征向量V p后,将该特征向量V p输入位置分类模型cp以获得目标人员的位置 类别pi。
由本实施例可得,提出了一种具体的根据目标人员的位置确定出目标人员的位置类别的方式,提高了方案的可实施性。
在一实施例中,步骤S60,也即通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果,具体包括如下步骤:
S61、获取目标人员的行为数据,对行为数据进行数据预处理以获得当前时间窗口对应的第二数据段;
其中,在获取了行为数据后,对行为数据进行校正、滤波等预处理,可以滤掉部分干扰信息,并获取得到当前时间窗口对应的第二数据段。
S62、对第二数据段进行特征提取,得到第二数据段对应的特征向量V a
S63、将所述特征向量V a输入目标行为分类模型cai以输出行为类别aj,aj∈A,A为预设的行为构成的集合,A={a1,a2,...,aJ},J为预设的行为类别数目,aj为所述目标人员的行为识别结果。
由以上技术方案可知,本申请所提供的行识别方法中,先是获取在当前空间场所内终端采集的第一状态数据;根据第一状态数据确定当前空间场所的场景类型;根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;根据定位数据以及位置分类模型确定目标人员的位置类别;确定位置类别对应的目标行为分类模型;通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果,可以有效地针对不同空间场所下的人员作出行为预测,从而有效地使得识别等过程具备区域针对性,使得行为识别结果比较准确。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
在一实施例中,提供一种行为识别装置,该行为识别装置与上述实施例中的行为识别方法一一对应。如图3所示,该行为识别装置3包括获取模块31、第一确定模块32、定位模块33、第二确定模块34、第三确定模块35以及识别模块36。各功能模块详细说明如下:
获取模块31,用于获取在当前空间场所内终端采集的第一状态数据;
第一确定模块32,用于根据获取模块31获取的第一状态数据确定当前空间场所的场景类型;
定位模块33,用于根据第一确定模块32确定的场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;
第二确定模块34,用于根据定位模块33定位的定位数据以及位置分类模型确定目标人员的位置类别,位置分类模型用于根据目标人员的定位数据确定出目标人员的位置类别;
第三确定模块35,用于根据第二确定模块34确定的确定位置类别对应的目标行为分 类模型;
识别模块36,用于通过第三确定模块35确定的目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果。
在一实施例,第二确定模块34具体用于:
对定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
对第一数据段进行特征提取,得到第一数据段对应的特征向量V p
将特征向量V p输入位置分类模型以获得目标人员的位置类别。
在一实施例中,识别模块36通具体用于:
获取目标人员的行为数据,对行为数据进行数据预处理以获得当前时间窗口对应的第二数据段;
对第二数据段进行特征提取,得到第二数据段对应的特征向量V a
将特征向量V a输入目标行为分类模型cai以输出行为类别aj,aj∈A,A为预设的行为构成的集合,A={a1,a2,...,aJ},J为预设的行为类别数目,aj为目标人员的行为识别结果。
在一实施例中,行为识别装置还包括:
训练模块,用于第二确定模块34根据定位模块33定位的定位数据以及位置分类模型确定目标人员的位置类别之前,训练位置分类模型,以及不同人员位置的行为分类模型cai,cai∈C,C为行为分类模型构成的集合,C={ca1,ca2,ca3,...,caI},cai与人员的位置类别pi具有一一对应关系,位置类别pi∈P,P为预设的人员位置的集合,P={p1,p2,...,pI},I为预设的人员位置的类别数目。
在一实施例中,所述行为识别装置还包括:
采集模块,用于根据第一状态数据确定当前空间场所的场景类型之前,采集处于室内场景、室外场景以及室内外融合场景内终端的第二状态数据;
所述训练模块,还用于将第二状态数据作为训练样本数据进行训练以得到用于进行场景类型检测的分类器;
所述第一确定模块,用于将第一状态数据输入训练模块训练得到的分类器以确定当前空间场所的场景类型。
从这里可以看出,本申请所提供的行识别装置中,先是获取在当前空间场所内终端采集的第一状态数据;根据第一状态数据确定当前空间场所的场景类型;根据场景类型对空间场所内的目标人员进行定位以获得定位数据,其中,目标人员为空间场所内的其中任意一个人员;根据定位数据以及位置分类模型确定目标人员的位置类别;确定位置类别对应的目标行为分类模型;通过目标行为分类模型对目标人员进行行为识别,以获得目标人员的行为识别结果,可以有效地针对不同空间场所下的人员作出行为预测,从而有效地使得 识别等过程具备区域针对性,使得行为识别结果比较准确。
关于行为识别装置的具体限定可以参见上文中对于行为识别方法的限定,在此不再赘述。上述行为识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机可读指令和数据库。该内存储器为非易失性存储介质中的操作系统和计算机可读指令的运行提供环境。该计算机设备的数据库用于存储上述获取的各种状态数据、行为数据、定位数据以及训练样本数据等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机可读指令被处理器执行时以实现一种行为识别方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机可读指令,处理器执行计算机可读指令时实现以下步骤:
获取在当前空间场所内终端采集的第一状态数据;
根据所述第一状态数据确定所述当前空间场所的场景类型;
根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
确定所述位置类别对应的目标行为分类模型;
通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
需要说明的是,处理器执行计算机可读指令时所实现的步骤或功能,可以参阅前述方法实施例中的描述,这里不重复赘述。
在一个实施例中,提供了一个或多个存储有计算机可读指令的非易失性可读存储介质,该非易失性可读存储介质上存储有计算机可读指令,该计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器实现以下步骤:
获取在当前空间场所内终端采集的第一状态数据;
根据所述第一状态数据确定所述当前空间场所的场景类型;
根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
确定所述位置类别对应的目标行为分类模型;
通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
同理需要说明的是,该计算机可读指令被处理器执行时所实现的步骤或功能,可以参 阅前述方法实施例中的描述,这里不重复赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一非易失性计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (20)

  1. 一种行为识别方法,其特征在于,包括:
    获取在当前空间场所内终端采集的第一状态数据;
    根据所述第一状态数据确定所述当前空间场所的场景类型;
    根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
    根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
    确定所述位置类别对应的目标行为分类模型;
    通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
  2. 如权利要求1所述的行为识别方法,其特征在于,所述根据所述定位数据以及位置分类模型确定所述目标人员的位置类别之前,所述方法还包括:
    训练所述位置分类模型,以及不同人员位置的行为分类模型cai,所述cai∈C,所述C为行为分类模型构成的集合,所述C={ca1,ca2,ca3,...,caI},所述cai与人员的位置类别pi具有一一对应关系,所述位置类别pi∈P,所述P为预设的人员位置的集合,所述P={p1,p2,...,pI},所述I为预设的人员位置的类别数目。
  3. 如权利要求1或2任一项所述的行为识别方法,其特征在于,所述根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,包括:
    对所述定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
    对所述第一数据段进行特征提取,得到所述第一数据段对应的特征向量V p
    将所述特征向量V p输入所述位置分类模型以获得所述目标人员的位置类别。
  4. 如权利要求3所述的行为识别方法,其特征在于,通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果,包括:
    获取所述目标人员的行为数据,对所述行为数据进行数据预处理以获得所述当前时间窗口对应的第二数据段;
    对所述第二数据段进行特征提取,得到所述第二数据段对应的特征向量V a
    将所述特征向量V a输入所述目标行为分类模型cai以输出行为类别aj,aj∈A,所述A为预设的行为构成的集合,所述A={a1,a2,...,aJ},所述J为预设的行为类别数目,aj为所述目标人员的行为识别结果。
  5. 如权利要求1或2所述的行为识别方法,其特征在于,所述根据所述第一状态数据确定当前空间场所的场景类型之前,所述方法还包括:
    采集处于所述室内场景、室外场景以及室内外融合场景内终端的第二状态数据;
    将所述第二状态数据作为训练样本数据进行训练以得到用于进行场景类型检测的分类器;
    所述根据所述第一状态数据确定当前空间场所的场景类型,包括:
    将所述第一状态数据输入所述分类器以确定所述当前空间场所的场景类型。
  6. 一种行为识别装置,其特征在于,包括:
    获取模块,用于获取在当前空间场所内终端采集的第一状态数据;
    第一确定模块,用于根据所述获取模块获取的所述第一状态数据确定所述当前空间场所的场景类型;
    定位模块,用于根据所述第一确定模块确定的所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
    第二确定模块,用于根据所述定位模块定位的定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
    第三确定模块,用于根据所述第二确定模块确定的确定所述位置类别对应的目标行为分类模型;
    识别模块,用于通过所述第三确定模块确定的所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
  7. 如权利要求6所述的行为识别装置,其特征在于,所述行为识别装置还包括:
    训练模块,用于所述第二确定模块根据所述定位模块定位的定位数据以及位置分类模型确定所述目标人员的位置类别之前,训练所述位置分类模型,以及不同人员位置的行为分类模型cai,所述cai∈C,所述C为行为分类模型构成的集合,所述C={ca1,ca2,ca3,...,caI},所述cai与人员的位置类别pi具有一一对应关系,所述位置类别pi∈P,所述P为预设的人员位置的集合,所述P={p1,p2,...,pI},所述I为预设的人员位置的类别数目。
  8. 如权利要求6或7所述的行为识别装置,其特征在于,所述第二确定模块具体用于:
    对所述定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
    对所述第一数据段进行特征提取,得到所述第一数据段对应的特征向量V p
    将所述特征向量V p输入所述位置分类模型以获得所述目标人员的位置类别。
  9. 如权利要求8所述的行为识别装置,其特征在于,所述识别模块具体用于:
    获取所述目标人员的行为数据,对所述行为数据进行数据预处理以获得所述当前时间窗口对应的第二数据段;
    对所述第二数据段进行特征提取,得到所述第二数据段对应的特征向量V a
    将所述特征向量V a输入所述第三确定模块确定的所述目标行为分类模型cai以输出行为类别aj,aj∈A,所述A为预设的行为构成的集合,所述A={a1,a2,...,aJ},所述J为预设的行为类别数目,aj为目标人员的行为识别结果。
  10. 如权利要求6或7所述的行为识别装置,其特征在于,所述行为识别装置还包括:
    采集模块,用于所述根据所述第一状态数据确定当前空间场所的场景类型之前,采集处于所述室内场景、室外场景以及室内外融合场景内终端的第二状态数据;
    训练模块,用于将所述采集模块采集的所述第二状态数据作为训练样本数据进行训练以得到用于进行场景类型检测的分类器;
    所述第一确定模块具体用于:将所述第一状态数据输入所述训练模块训练得到的所述分类器以确定当前空间场所的场景类型。
  11. 一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机可读指令,其特征在于,所述处理器执行所述计算机可读指令时实现如下步骤:
    获取在当前空间场所内终端采集的第一状态数据;
    根据所述第一状态数据确定所述当前空间场所的场景类型;
    根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
    根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
    确定所述位置类别对应的目标行为分类模型;
    通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
  12. 如权利要求11所述的计算机设备,其特征在于,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器还执行如下步骤:
    所述根据所述定位数据以及位置分类模型确定所述目标人员的位置类别之前,训练所述位置分类模型,以及不同人员位置的行为分类模型cai,所述cai∈C,所述C为行为分类模型构成的集合,所述C={ca1,ca2,ca3,...,caI},所述cai与人员的位置类别pi具有一一对应关系,所述位置类别pi∈P,所述P为预设的人员位置的集合,所述P={p1,p2,...,pI},所述I为预设的人员位置的类别数目。
  13. 如权利要求11或12任一项所述的计算机设备,其特征在于,所述根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,包括:
    对所述定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
    对所述第一数据段进行特征提取,得到所述第一数据段对应的特征向量V p
    将所述特征向量V p输入所述位置分类模型以获得所述目标人员的位置类别。
  14. 如权利要求13所述的计算机设备,其特征在于,通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果,包括:
    获取所述目标人员的行为数据,对所述行为数据进行数据预处理以获得所述当前时间窗口对应的第二数据段;
    对所述第二数据段进行特征提取,得到所述第二数据段对应的特征向量V a
    将所述特征向量V a输入所述目标行为分类模型cai以输出行为类别aj,aj∈A,所述A为预设的行为构成的集合,所述A={a1,a2,...,aJ},所述J为预设的行为类别数目,aj为所述目标人员的行为识别结果。
  15. 如权利要求11或12所述的计算机设备,其特征在于,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器还执行如下步骤:
    所述根据所述第一状态数据确定当前空间场所的场景类型之前,采集处于所述室内场景、室外场景以及室内外融合场景内终端的第二状态数据;
    将所述第二状态数据作为训练样本数据进行训练以得到用于进行场景类型检测的分类器;
    所述根据所述第一状态数据确定当前空间场所的场景类型,包括:
    将所述第一状态数据输入所述分类器以确定所述当前空间场所的场景类型。
  16. 一个或多个存储有计算机可读指令的非易失性可读存储介质,其特征在于,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器执行如下步骤:
    获取在当前空间场所内终端采集的第一状态数据;
    根据所述第一状态数据确定所述当前空间场所的场景类型;
    根据所述场景类型对所述空间场所内的目标人员进行定位以获得定位数据,其中,所述目标人员为所述空间场所内的其中任意一个人员;
    根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,所述位置分类模型用于根据所述目标人员的定位数据确定出所述目标人员的位置类别;
    确定所述位置类别对应的目标行为分类模型;
    通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果。
  17. 如权利要求16所述的非易失性可读存储介质,其特征在于,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器还执行如下步骤:
    所述根据所述定位数据以及位置分类模型确定所述目标人员的位置类别之前,训练所述位置分类模型,以及不同人员位置的行为分类模型cai,所述cai∈C,所述C为行为分类模型构成的集合,所述C={ca1,ca2,ca3,...,caI},所述cai与人员的位置类别pi具有一一对应关系,所述位置类别pi∈P,所述P为预设的人员位置的集合,所述P={p1,p2,...,pI},所述I为预设的人员位置的类别数目。
  18. 如权利要求16或17任一项所述的非易失性可读存储介质,其特征在于,所述根据所述定位数据以及位置分类模型确定所述目标人员的位置类别,包括:
    对所述定位数据进行数据预处理以获得当前时间窗口对应的第一数据段;
    对所述第一数据段进行特征提取,得到所述第一数据段对应的特征向量V p
    将所述特征向量V p输入所述位置分类模型以获得所述目标人员的位置类别。
  19. 如权利要求18所述的非易失性可读存储介质,其特征在于,通过所述目标行为分类模型对所述目标人员进行行为识别,以获得所述目标人员的行为识别结果,包括:
    获取所述目标人员的行为数据,对所述行为数据进行数据预处理以获得所述当前时间窗口对应的第二数据段;
    对所述第二数据段进行特征提取,得到所述第二数据段对应的特征向量V a
    将所述特征向量V a输入所述目标行为分类模型cai以输出行为类别aj,aj∈A,所述A为预设的行为构成的集合,所述A={a1,a2,...,aJ},所述J为预设的行为类别数目,aj为所述目标人员的行为识别结果。
  20. 如权利要求16或17所述的非易失性可读存储介质,其特征在于,所述计算机可读指令被一个或多个处理器执行时,使得所述一个或多个处理器还执行如下步骤:
    所述根据所述第一状态数据确定当前空间场所的场景类型之前,采集处于所述室内场景、室外场景以及室内外融合场景内终端的第二状态数据;
    将所述第二状态数据作为训练样本数据进行训练以得到用于进行场景类型检测的分类器;
    所述根据所述第一状态数据确定当前空间场所的场景类型,包括:
    将所述第一状态数据输入所述分类器以确定所述当前空间场所的场景类型。
PCT/CN2018/106433 2018-06-29 2018-09-19 行为识别方法、装置、计算机设备及存储介质 WO2020000697A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810698498.1 2018-06-29
CN201810698498.1A CN108985195A (zh) 2018-06-29 2018-06-29 行为识别方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
WO2020000697A1 true WO2020000697A1 (zh) 2020-01-02

Family

ID=64539551

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/106433 WO2020000697A1 (zh) 2018-06-29 2018-09-19 行为识别方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN108985195A (zh)
WO (1) WO2020000697A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111652304A (zh) * 2020-05-28 2020-09-11 浙江大华技术股份有限公司 人员亲密度分析方法、终端及存储介质
CN111914657A (zh) * 2020-07-06 2020-11-10 浙江大华技术股份有限公司 一种宠物行为检测方法、装置、电子设备及存储介质
CN113784291A (zh) * 2021-07-23 2021-12-10 广东电网有限责任公司广州供电局 基于网关的电力人员定位方法、装置、网关设备和介质
CN114136304A (zh) * 2021-11-29 2022-03-04 全球能源互联网研究院有限公司 一种面向电网场景的定位方法及系统
CN115668989A (zh) * 2021-04-23 2023-01-31 荣耀终端有限公司 一种场景识别方法及电子设备
CN115795354A (zh) * 2023-02-06 2023-03-14 北京志翔科技股份有限公司 三合一场所的识别方法和识别装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428545A (zh) * 2019-01-10 2020-07-17 北京嘀嘀无限科技发展有限公司 行为判断方法、装置及电子设备
CN111243742B (zh) * 2020-01-14 2023-08-25 中科海微(北京)科技有限公司 一种能够分析儿童用眼习惯的智能眼镜
CN111796315A (zh) * 2020-06-30 2020-10-20 中国人民解放军军事科学院国防科技创新研究院 无人机室内外的定位方法及装置
CN112711755A (zh) * 2020-12-26 2021-04-27 重庆扬成大数据科技有限公司 科技特派员通过云平台进行信息筛选工作方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101742255A (zh) * 2009-12-04 2010-06-16 福建省电力有限公司 电力现场作业视频自动监控系统
CN102682041A (zh) * 2011-03-18 2012-09-19 日电(中国)有限公司 用户行为识别设备及方法
CN103942575A (zh) * 2014-04-02 2014-07-23 公安部第三研究所 基于场景和马尔科夫逻辑网的智能行为分析系统及方法
CN105678222A (zh) * 2015-12-29 2016-06-15 浙江大学 一种基于移动设备的人体行为识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101742255A (zh) * 2009-12-04 2010-06-16 福建省电力有限公司 电力现场作业视频自动监控系统
CN102682041A (zh) * 2011-03-18 2012-09-19 日电(中国)有限公司 用户行为识别设备及方法
CN103942575A (zh) * 2014-04-02 2014-07-23 公安部第三研究所 基于场景和马尔科夫逻辑网的智能行为分析系统及方法
CN105678222A (zh) * 2015-12-29 2016-06-15 浙江大学 一种基于移动设备的人体行为识别方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111652304A (zh) * 2020-05-28 2020-09-11 浙江大华技术股份有限公司 人员亲密度分析方法、终端及存储介质
CN111652304B (zh) * 2020-05-28 2023-04-07 浙江大华技术股份有限公司 人员亲密度分析方法、终端及存储介质
CN111914657A (zh) * 2020-07-06 2020-11-10 浙江大华技术股份有限公司 一种宠物行为检测方法、装置、电子设备及存储介质
CN111914657B (zh) * 2020-07-06 2023-04-07 浙江大华技术股份有限公司 一种宠物行为检测方法、装置、电子设备及存储介质
CN115668989A (zh) * 2021-04-23 2023-01-31 荣耀终端有限公司 一种场景识别方法及电子设备
CN115668989B (zh) * 2021-04-23 2024-04-02 荣耀终端有限公司 一种场景识别方法及电子设备
CN113784291A (zh) * 2021-07-23 2021-12-10 广东电网有限责任公司广州供电局 基于网关的电力人员定位方法、装置、网关设备和介质
CN114136304A (zh) * 2021-11-29 2022-03-04 全球能源互联网研究院有限公司 一种面向电网场景的定位方法及系统
CN115795354A (zh) * 2023-02-06 2023-03-14 北京志翔科技股份有限公司 三合一场所的识别方法和识别装置

Also Published As

Publication number Publication date
CN108985195A (zh) 2018-12-11

Similar Documents

Publication Publication Date Title
WO2020000697A1 (zh) 行为识别方法、装置、计算机设备及存储介质
US10219129B2 (en) Autonomous semantic labeling of physical locations
CN109298389B (zh) 基于多粒子群优化的室内行人组合位姿估计方法
US10489649B2 (en) Drone data locker system
US20200178053A1 (en) Drone-to-drone information exchange
US11164329B2 (en) Multi-channel spatial positioning system
US11875569B2 (en) Smart video surveillance system using a neural network engine
Park et al. Smartphone-based pedestrian tracking in indoor corridor environments
CN108919177B (zh) 一种基于虚拟信源估计与轨迹校正的定位地图构建方法
TW201440013A (zh) 基於虛擬地標之定位及地圖繪製技術
CN110456320B (zh) 一种基于自由空间步态时序特征的超宽带雷达身份识别方法
WO2019080881A1 (zh) 行人流量漏斗生成方法及装置、存储介质、电子设备
WO2016119107A1 (zh) 一种噪音地图绘制方法及装置
CN112307868A (zh) 图像识别方法、电子设备和计算机可读介质
CN110413655B (zh) 一种基于改进隐马尔科夫模型的楼层识别方法
Redžić et al. Image and wlan bimodal integration for indoor user localization
WO2023273629A1 (zh) 一种配置边缘服务器中神经网络模型的系统及装置
CN111403021B (zh) 一种监测方法及装置
Milotta et al. Egocentric visitors localization in natural sites
Bhargava et al. Leveraging fog analytics for context-aware sensing in cooperative wireless sensor networks
CN106408868A (zh) 一种便携式老年人跌倒监控预警系统及方法
US10839525B2 (en) Information processing apparatus, data collection method, and data collection system
US20190287009A1 (en) Method for controlling scene detection using an apparatus
KR20210030136A (ko) 차량 데이터 생성 장치 및 방법, 그리고 시스템
US11544505B1 (en) Semi-supervised learning based on clustering objects in video from a property

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18924879

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18924879

Country of ref document: EP

Kind code of ref document: A1