CN109670380B - 动作识别、姿势估计的方法及装置 - Google Patents
动作识别、姿势估计的方法及装置 Download PDFInfo
- Publication number
- CN109670380B CN109670380B CN201710955087.1A CN201710955087A CN109670380B CN 109670380 B CN109670380 B CN 109670380B CN 201710955087 A CN201710955087 A CN 201710955087A CN 109670380 B CN109670380 B CN 109670380B
- Authority
- CN
- China
- Prior art keywords
- human body
- image
- processed
- weight coefficient
- feature vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1127—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4528—Joints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Dentistry (AREA)
- Physiology (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Rheumatology (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种动作识别、姿势估计的方法及装置。涉及人工智能领域,具体涉及计算机视觉领域。该动作识别方法包括:确定待处理视频,所述待处理视频为包含人体图像的视频;根据所述待处理视频确定待处理图像;对所述待处理图像进行卷积处理,得到多个特征向量,其中,所述多个特征向量分别用于表示所述待处理图像不同位置的特征;根据所述多个特征向量确定所述人体的人体关节的权重系数集合;根据所述人体关节的权重系数集合对所述多个特征向量进行加权处理,得到所述人体关节的动作特征;根据所述人体关节的动作特征确定所述人体的动作特征;根据所述人体的动作特征,确定所述人体的动作类型。本申请能够提高动作识别的准确率。
Description
技术领域
本申请涉及人工智能领域中的计算机视觉领域,并且更具体地,涉及一种动作识别、姿势估计的方法及装置。
背景技术
在很多场景下,需要对视频中的人体动作进行识别,以确定人体动作的动作类型。例如,在监控系统中,为了感知人的意图,需要对监控系统获取的视频中的人体动作进行识别,在人机交互系统中,为了对人的行为进行理解,需要对人机交互系统获取的视频中的人体动作进行识别。
为了实现对视频中的人体动作的识别,现有方案是从待处理视频提取出某些帧的图片,然后采用卷积神经网络对图片进行特征提取,接下来再根据从图片中提取出来的特征向量确定人体的动作属于每个动作类型的置信度,然后将置信度最大(且置信度大于预设阈值)的动作类型确定为视频中的人体的动作类型。
现有方案提取的是图片中的所有区域的特征,这些特征中包含了大量的与动作无关的特征,因此,最终进行动作识别的效果不好。另外,现有方案中还存在直接提取图片中的部分区域的特征来进行动作识别的方式,但是直接简单的提取图像部分区域的特征也可能无法较好地反映人体的动作特征,导致动作识别的准确率仍然较低。
发明内容
本申请提供一种动作识别方法、姿势估计方法及装置,能够提高动作识别的准确率。
第一方面,提供了一种动作识别方法,所述方法包括:确定待处理视频,所述待处理视频为包含人体图像的视频;根据所述待处理视频确定待处理图像,所述待处理图像为下列图像中的至少一种:第一图像,根据所述待处理视频中的多帧图像生成的光流图像,其中,所述第一图像为所述待处理视频中的任意一帧图像,或者,所述第一图像为所述待处理视频中的多帧图像合成的图像;对所述待处理图像进行卷积处理,得到多个特征向量,其中,所述多个特征向量分别用于表示所述待处理图像不同位置的特征;根据所述多个特征向量确定所述人体的人体关节的权重系数集合,其中,所述人体关节的权重系数集合包括所述多个特征向量中的每个特征向量在所述人体关节的权重系数,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,所述第一类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第一距离,所述第二类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第二距离,所述第一距离小于或者等于所述第二距离,所述人体关节的数量为多个,每个人体关节均对应一个权重系数集合;根据所述人体关节的权重系数集合对所述多个特征向量进行加权处理,得到所述人体关节的动作特征;
根据所述人体关节的动作特征确定所述人体的动作特征;根据所述人体的动作特征,确定所述人体的动作类型。
本申请中,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,而第一类特征向量对应在待处理图像中的位置与人体关节对应在待处理图像中的位置的距离要小于或者等于第二类特征向量对应在待处理图像中的位置与人体关节对应在待处理图像中的位置的距离,因此,在本申请中,离人体关节越近的区域对应的特征向量的权重系数越大,这样能够使得待处理图像中与动作密切相关的特征在动作识别时占有较大的比重,而待处理图像中与动作不太相关的特征在动作识别时占有较小的比重,本申请在动作识别时充分考虑了待处理图像不同区域的特征在动作识别中的重要性,能够得到更加鲁棒的动作特征,从而能够提高动作识别的准确率。
在一种可能的实现方式中,所述根据所述多个特征向量确定所述人体的人体关节的权重系数集合,包括:根据所述多个特征向量以及所述人体的累计动作信息,确定所述人体关节的权重系数集合,其中,所述人体的累计动作信息用于指示当前时刻之前累计的所述人体的动作特征。
在确定人体关节的权重系数集合时,通过考虑当前时刻之前人体的累计动作信息,能够为与动作密切相关的特征向量确定更大的权重系数,进而提高动作识别的准确率。其中,所述当前时刻之前人体的累计动作信息可以通过但不限于递归神经网络获取,例如,当前时刻之前人体的累计动作信息可以通过长短期记忆模块(Long Short Term Memory,LSTM)来获取。
在一种可能的实现方式中,所述根据所述人体关节的动作特征确定所述人体的动作特征,包括:对所述人体关节的动作特征进行加权或者组合,得到所述人体的动作特征。
通过对人体关节的动作特征进行加权或者组合,能够使得与人体动作关系比较密切的人体关节的动作特征占据较大的比重,从而使得最终得到的人体的动作特征能够更好地反映人体的动作,进而提高动作识别的准确率。
在一种可能的实现方式中,所述根据所述人体关节的动作特征确定所述人体的动作特征,包括:对所述人体关节的动作特征进行加权或者组合,得到人体部分的动作特征,其中,所述人体包含多个所述人体部分,每个人体部分包含至少一个人体关节;对所述人体部分的动作特征进行加权或者组合,得到所述人体的动作特征。
根据人体关节的动作特征得到人体部分的动作特征,能够在部分关节被遮挡的情况下,通过该人体部分的其它关节的动作特征来提供动作信息,最终使得在人体部分关节被遮挡的情况也可以识别出人的动作类型。
在一种可能的实现方式中,所述待处理图像包括所述第一图像和所述光流图像,所述对所述待处理图像进行卷积处理,得到多个特征向量,包括:对所述第一图像进行卷积处理,得到所述第一图像的多个特征向量;对所述光流图像进行卷积处理,得到所述光流图像的多个特征向量;所述根据所述多个特征向量确定所述人体的人体关节的权重系数集合,包括:根据所述第一图像的多个特征向量分别确定所述人体关节的第一类权重系数集合;根据所述光流图像的多个特征向量确定所述人体关节的第二类权重系数集合;所述根据所述人体关节的权重系数集合对所述多个特征向量进行加权处理,得到所述人体关节的动作特征,包括:根据所述第一类权重系数集合对所述第一图像的多个特征向量进行加权处理,得到所述人体关节的第一类动作特征;根据所述第二类权重系数集合对所述光流图像的多个特征向量进行加权处理,得到所述人体关节的第二类动作特征;所述根据所述人体关节的动作特征确定所述人体的动作特征,包括:对所述人体关节的第一类动作特征和所述人体关节的第二类动作特征进行加权或组合,得到所述人体的动作特征。
通过对待处理视频中获取的第一图像以及光流图像提取特征,并根据从第一图像和光流图像中提取出来的特征来共同进行动作识别,既考虑到了待处理视频的中的人体动作的空间特征,也考虑到了待处理视频中的人体动作的时间变化特点,能够提高动作识别的准确性。
在一种可能的实现方式中,所述方法还包括:对神经网络进行训练,确定所述神经网络中的参数,以使得由所述神经网络产生的所述第一类特征向量的权重系数大于或者等于所述第二类特征向量的权重系数,其中,所述神经网络用于执行所述第一方面以及第一方面中的任意一种可能的实现方式中的方法。
第二方面,提供了一种姿势估计方法,所述方法包括:确定待处理视频,所述待处理视频为包含人体图像的视频;根据所述待处理视频确定待处理图像,所述待处理图像为下列图像中的至少一种:第一图像,根据所述待处理视频中的多帧图像生成的光流图像,其中,所述第一图像为所述待处理视频中的任意一帧图像,或者,所述第一图像为所述待处理视频中的多帧图像合成的图像;对所述待处理图像进行卷积处理,得到多个特征向量,其中,所述多个特征向量分别用于表示所述待处理图像不同位置的特征;根据所述多个特征向量确定所述人体的人体关节的权重系数集合,所述人体关节的权重系数集合包括所述多个特征向量中的每个特征向量在所述人体关节的权重系数,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,所述第一类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第一距离,所述第二类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第二距离,所述第一距离小于或者等于所述第二距离,所述人体关节的数量为多个,每个人体关节均对应一个权重系数集合;将所述多个特征向量中的第一特征向量对应在所述待处理图像中的区域确定为所述人体关节的位置,其中,所述第一特征向量的权重系数为第一权重系数,所述第一权重系数为所述人体关节的权重系数集合中大于预设阈值的权重系数;根据所述人体关节的位置,确定所述人体的姿势。
根据人体关节的权重集合来估计视频中的人体的姿势,能够使得待处理视频中与动作密切相关的特征占有较大的比重,与现有方案中从待处理视频中的图像中提取的全部特征来进行姿势估计的方式相比,能够更准确地确定视频中的人体的姿势。
在一种可能的实现方式中,所述根据所述多个特征向量确定所述人体的人体关节的权重系数集合,包括:根据所述多个特征向量以及所述人体的累计动作信息,确定所述人体关节的权重系数集合,其中,所述人体的累计动作信息用于指示当前时刻之前累计的所述人体的动作特征。其中,所述当前时刻之前人体的累计动作信息可以通过但不限于递归神经网络(如LSTM)获取。
在确定人体关节的权重系数集合时,通过考虑当前时刻之前人体的累计动作信息,能够为与动作密切相关的特征向量确定更大的权重系数,进而提高姿势估计的准确率。
在一种可能的实现方式中,所述待处理图像包括所述第一图像和所述光流图像,所述对所述待处理图像进行卷积处理,得到多个特征向量,包括:对所述第一图像进行卷积处理,得到所述第一图像的多个特征向量;对所述光流图像进行卷积处理,得到所述光流图像的多个特征向量;所述根据所述多个特征向量确定所述人体的人体关节的权重系数集合,包括:根据所述第一图像的多个特征向量分别确定所述人体关节的第一类权重系数集合;根据所述光流图像的多个特征向量确定所述人体关节的第二类权重系数集合;根据所述第一类权重系数集合和所述第二类权重系数集合,确定所述人体关节的权重系数集合。
通过对待处理视频中获取的第一图像以及光流图像提取特征,并根据从第一图像和光流图像中提取出来的特征来共同进行姿势估计,既考虑到了待处理视频的中的人体动作的空间特征,也考虑到了待处理视频中的人体动作的时间变化特点,能够提高姿势估计的准确性。
在一种可能的实现方式中,所述根据所述第一类权重系数集合和所述第二类权重系数集合,确定所述人体关节的权重系数集合,包括:对所述第一类权重系数集合和所述第二类权重系数集合进行加权处理,得到所述人体关节的权重系数集合。
第三方面,提供了一种动作识别装置,所述装置包括用于执行所述第一方面或者第一方面的任一可能的实现方式中的方法的模块。
第四方面,提供了一种姿势估计装置,所述装置包括用于执行所述第二方面或者第二方面的任一可能的实现方式中的方法的模块。
第七方面,提供一种动作识别装置,所述装置包括存储介质和中央处理器,所述存储介质可以是非易失性存储介质,所述存储介质中存储有计算机可执行程序,所述中央处理器与所述非易失性存储介质连接,并执行所述计算机可执行程序以实现所述第一方面或者第一方面的任一可能的实现方式中的方法。
第八方面,提供一种姿势估计装置,所述装置包括存储介质和中央处理器,所述存储介质可以是非易失性存储介质,所述存储介质中存储有计算机可执行程序,所述中央处理器与所述非易失性存储介质连接,并执行所述计算机可执行程序以实现所述第二方面或者第二方面的任一可能的实现方式中的方法。
第九方面,提供一种芯片,所述芯片包括处理器与通信接口,所述通信接口用于与外部器件进行通信,所述处理器用于执行第一方面或第一方面的任一可能的实现方式中的方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第一方面或第一方面的任一可能的实现方式中的方法。
第十方面,提供一种芯片,所述芯片包括处理器与通信接口,所述通信接口用于与外部器件进行通信,所述处理器用于执行第二方面或第二方面的任一可能的实现方式中的方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第二方面或第二方面的任一可能的实现方式中的方法。
第十一方面,提供一种计算机可读存储介质,所述计算机可读介质存储用于设备执行的程序代码,所述程序代码包括用于执行第一方面或者第一方面的任一可能的实现方式中的方法的指令。
第十二方面,提供一种计算机可读存储介质,所述计算机可读介质存储用于设备执行的程序代码,所述程序代码包括用于执行第二方面或者第二方面的任一可能的实现方式中的方法的指令。
附图说明
图1是本申请实施例的动作识别方法的示意性流程图。
图2是卷积特征图和特征向量的示意图。
图3是人体关节的示意图。
图4是人体左脚踝的权重系数集合中各个权重系数的取值情况示意图。
图5是人体图像。
图6是将权重系数集合中各个权重系数的取值情况示意图与人体图像叠加后的示意图。
图7是本申请实施例的动作识别方法的示意性流程图。
图8是本申请实施例的姿势估计方法的示意性流程图。
图9是驾驶员危险行为提醒系统的示意性框图。
图10是危险行为识别系统的示意性框图。
图11是本申请实施例的动作识别装置的示意性框图。
图12是本申请实施例的动作识别装置的示意性框图。
图13是本申请实施例的动作识别装置的示意性框图。
图14是本申请实施例的动作识别装置的示意性框图。
图15是本申请实施例的姿势估计装置的示意性框图。
图16是本申请实施例的姿势估计装置的示意性框图。
图17是本申请实施例的姿势估计装置的示意性框图。
图18是本申请实施例的姿势估计装置的示意性框图。
图19是本申请实施例的动作识别和姿势估计装置的示意性框图。
具体实施方式
由于视频图像中不同的区域对动作识别的重要性是不同的,人体关节所在的区域对动作识别更重要,而背景区域相对来说重要性比较低。为了更好地进行动作识别,在提取人体的动作特征时可以对不同的图像区域区别对待,具体地,可以对与人体关节密切相关的图像区域给予更高的权重,而对与人体关节不太相关的图像区域给予较低的权重,从而更好地对视频中的人体进行动作识别,提高动作识别的准确率。下面结合图1对本申请实施例的动作识别方法进行详细的介绍。
图1是本申请实施例的动作识别方法的示意性流程图。图1所示的方法可以应用在人机交互、视频监控、辅助驾驶以及自动驾驶等需要对视频中的人体动作进行动作识别的场景中,并且,图1所示的方法可以由人机交互系统中的机器、视频监控系统、辅助驾驶系统或者自动驾驶系统来执行。
图1所示的方法包括步骤110至步骤160,下面分别对步骤110至步骤160进行介绍。
110、确定待处理视频,该待处理视频为包含人体图像的视频。
应理解,上述待处理视频可以是包含人体相关图像的视频,例如,该待处理视频可以是以下视频中的任意一种:视频监控系统监控得到的包含人体相关图像的视频;辅助驾驶系统或者自动驾驶系统获取的包含路人相关图像的视频;人机交互系统所捕获的人体与机器交互的视频。
120、根据待处理视频确定待处理图像。
上述待处理图像可以是下列图像中的至少一种:
第一图像;
光流图像。
其中,第一图像为所述待处理视频中的任意一帧图像,或者第一图像是待处理视频中的多帧图像合成后得到的图像,光流图像为根据待处理视频中的多帧图像生成的图像。
130、对待处理图像进行卷积处理,得到多个特征向量,其中,该多个特征向量用于表示待处理图像在不同位置的特征。
在步骤130中,对待处理图像进行卷积处理具体可以包含以下三种情况:
情况一:对第一图像进行卷积处理,得到第一图像的多个特征向量。
情况二:对光流图像进行卷积处理,得到光流图像的多个特征向量。
情况三:对第一图像和光流图像进行卷积处理,得到第一图像的多个特征向量和光流图像的多个特征向量。
应理解,在获取光流图像时,可以先从待处理视频中抽取多帧图像或者图片,然后再根据抽取的多帧图像来生成待处理视频的光流图像。
例如,从待处理视频中获取若干帧图片It,It-1…It-N,其中,It为当前时刻t对应的一帧图片,It-1为当前时刻t之前的时刻t-1对应的一帧图片,通过计算这些图片在x和y这两个方向的光流,可以得到一个具有2N(N为大于1的整数)个通道的光流图像。
在步骤120中,可以采用卷积神经网络对待处理视频进行卷积运算先得到卷积特征图,然后再得到多个特征向量。
具体地,如图2所示,可以对待处理视频进行卷积处理,得到卷积特征图(convolution feature map)Ct,其中,Ct具有dc个通道,每个通道的分辨率为K1×K2,因此可以用一个K1×K2×dc矩阵来表示,即
卷积特征图的每个通道具有个K1×K2元素,每个通道中的第k个元素(k=1,2,…,K1×K2)组成卷积特征图的第k个特征向量Ct(k)。因此卷积特征图又可以表示为K1×K2个特征向量,每个向量的维度为dc×1,即如下图所示。
将输入的图像划分为K1×K2个区域,则第k个特征向量Ct(k)对应图像中第k个区域(或者位置)的特征。
140、根据多个特征向量确定人体的人体关节的权重系数集合。
应理解,在步骤140中人体关节的数量为多个,根据多个特征向量是要确定每个人体关节的权重系数集合,也就是说每一个人体关节都有一个权重系数集合。
另外,在步骤130中,人体关节的权重系数集合包括多个特征向量中的每个特征向量在人体关节的权重系数,并且,多个特征向量中的第一类特征向量的权重系数大于或者等于多个特征向量中的第二类特征向量的权重系数,其中,第一类特征向量对应在待处理图像中的位置和人体关节对应在待处理图像中的位置之间的距离为第一距离,第二类特征向量对应在待处理图像中的位置和人体关节对应在待处理图像中的位置之间的距离为第二距离,第一距离小于或者等于第二距离。
如图3所示,头部(head)、左肩膀(shoulder)、右肩膀、左肘部(elbow)、右肘部、左手腕(wrist)、右手腕、左臀部(hip)、右臀部、左膝盖(knee)、右膝盖、左脚踝(ankle)和右脚踝均为人体关节,也就是说,图3示出了13个人体关节,这些人体关节的编号为(1)至(13)。应理解,本申请中的人体关节并不局限于上述关节。
150、根据人体关节的权重系数集合对多个特征向量进行加权处理,得到人体关节的动作特征。
具体地,可以确定多个特征向量中的每个特征向量与相对应的权重系数的乘积,然后将得到的多个乘积进行加和,将加和的结果确定为人体关节的动作特征。例如,可以根据公式(2)确定每个人体关节的动作特征。在公式(2)中为人体关节J的动作特征,Ct(k)为特征向量,为Ct(k)的权重系数。
160、根据人体关节的动作特征确定所述人体的动作特征。
应理解,在步骤160中,最终确定的人体的动作特征可以是一个特征向量(该特征向量可以是一个1*N的向量),该特征向量包含人体的动作信息。
在根据多个人体关节的动作特征确定人体的动作特征可以具体采用以下两种方式进行。
方式一:对人体关节的动作特征进行加权或者合并,得到人体的动作特征。
应理解,由于人体关节的数量为多个,因此,对人体关节的动作特征进行加权或者合并实质上是对多个人体关节的动作特征进行加权或者合并,以得到人体的动作特征。
由于动作特征可以用特征向量来表示,因此,当对人体关节的动作特征进行合并得到人体的动作特征时,具体可以是将各个人体关节的动作特征对应的特征向量连接在一起,形成一个新的特征向量,该新的特征向量用于表示人体的动作特征。例如,人体关节的数量为L(L为大于1的整数),每个人体关节的动作特征对应的特征向量为1×M(M为大于1的整数)的特征向量,那么可以把L个1×M的特征向量组合起来得到一个1×N的特征向量,其中,N=L×M。
在对多个人体关节的动作特征进行加权时,不同人体关节的动作特征的加权系数既可以相同,也可以不同。
当不同人体关节的动作特征的加权系数相同时,相当于将不同人体关节的动作特征直接相加,以得到人体的动作特征。
当不同人体关节的动作特征的加权系数不同时,可以根据人体关节在动作识别中的重要性来确定人体关节的动作特征的加权系数。例如,在动作识别中重要性较高的人体关节的动作特征的加权系数较大,而在动作识别中重要性较低的人体关节的动作特征的加权系数较小。
而人体关节在动作识别中的重要性或者重要程度可以根据动作识别的应用场景来预先设定。例如,在棒球运动的视频中,左手腕、右手腕在动作识别的重要性要大于头部在动作识别中的重要性,因此,左手腕、右手腕的动作特征的加权系数大于头部动作特征的加权系数。另外,还可以根据神经网路对各个人体关节的权重系数进行训练,使得在动作识别中重要性较高的人体关节的动作特征的加权系数大于在动作识别过程中重要性较低的人体关节的动作特征的加权系数。
本申请中,通过对人体关节的动作特征进行加权或者组合,能够使得与人体动作关系比较密切的人体关节的动作特征占据较大的比重,从而使得最终得到的人体的动作特征能够更好地反映人体的动作,进而提高动作识别的准确率。
方式二:根据人体关节的动作特征确定人体的人体部分的动作特征;根据人体部分的动作特征确定人体的动作特征。
其中,人体包含多个人体部分,每个人体部分包含至少一个人体关节。
具体地,在对视频中的人体动作进行识别时,还可以将人体划分为不同的人体部分,其中,每个人体部分可以由一个或者多个人体关节组成。进一步地,人体部分可以是由一定语义关系的人体关节组成。例如,可以将人体划分成躯干、肘部、腕部、膝盖和脚踝等五个人体部分,其中,躯干由头部、左肩部、右肩膀、左臀部和右臀部组成,肘部由左肘部和右肘部组成,手腕由左手腕和右手腕组成,膝盖由左膝盖和右膝盖组成,脚踝由左脚踝和右脚踝组成。
当人体被划分为躯干、肘部、手腕、膝盖以及脚踝这五个人体部分时,这五个人体部分与图3所示的人体关节的对应关系如表1所示。
表1人体部分与人体关节的对应关系
人体部分 | 人体关节 |
躯干 | (1)、(2)、(3)、(8)、(9) |
肘部 | (4)、(5) |
手腕 | (6)、(7) |
膝盖 | (10)、(11) |
脚踝 | (12)、(13) |
应理解,由于每个人体部分包含至少一个人体关节,因此,在方式二中根据人体关节的动作特征确定人体部分的动作特征时,具体可以是对组成人体部分的各个人体关节的动作特征进行加权或者组合处理,进而得到人体部分的动作特征。其中,组成人体部分的各个人体关节的加权系数既可以相同,也可以不同。
具体地,可以根据公式(3)来确定每个人体部分的动作特征。
在公式(3)中,P表示人体部分,J表示组成人体部分P的人体关节,Ct(k)表示待处理图像位置k处的特征向量,表示Ct(k)在人体关节J的权重系数。应理解,在公式(3)中,将组成人体部分P的各个人体关节的动作特征相加到一起就得到了人体部分P的动作特征,也就是说,在人体部分P的各个关节的动作特征的加权系数是相同的。
可选地,在方式二中,根据人体部分的动作特征确定人体的动作特征具体包括:对人体部分的动作特征进行加权或者组合,得到人体的动作特征。
应理解,由于人体部分的数量为多个,因此,在对人部分的动作特征进行加权或者组合得到人体的动作特征实质上是指对多个人体部分的动作特征进行加权或者组合来得到人体的动作特征。
另外,在对多个人体部分的动作特征进行加权时,不同人体部分的动作特征的加权系数既可以相同,也可以不同。
当不同人体部分的动作特征的加权系数不同时,可以根据人体部分在动作识别中的重要性来确定人体部分的动作特征的加权系数,在动作识别中重要性较高的人体部分的动作特征的加权系数较大,而在动作识别中重要性较低的人体部分的动作特征的加权系数较小。例如,躯干在动作识别中的重要性高于脚踝,那么,躯干的动作特征的加权系数大于脚踝的动作特征的加权系数。
具体地,在方式二中,可以根据公式(4)得到人体的动作特征。
其中,PartPool函数可以采用以下方式(但是不限于以下方式)确定St。
本申请中,根据人体关节的动作特征得到人体部分的动作特征,能够在部分关节被遮挡的情况下,通过该人体部分的其它关节的动作特征来提供动作信息,最终使得在人体部分关节被遮挡的情况也可以识别出人的动作类型。
170、根据人体的动作特征,确定人体的动作类型。
可选地,根据人体的动作特征确定人体的动作类型具体包括:根据人体的动作特征确定人体的动作属于每种动作类型的置信度;根据人体的动作属于每种动作类型的置信度确定人体的动作类型。
应理解,人体的动作类型可以是预先设置好的,例如,本申请中的人体的动作类型具体可以包括:跑步(run)、行走(walk)、棒球投掷(Baseball_pitch)、棒球击球(baseball_swing)、投球(bowl)、挺举(clean_and_jerk)、打高尔夫球(golf_swing)、跳绳(jump_rope)、引体向上(pullup)、俯卧撑(pushup)、端坐(situp)、蹲坐(squat)、弹吉他(strum_guitar)、网球发球(tennis_serve)、网球正手(tennis_forehand)等等。应理解,这里只是动作类型的一些具体例子,本申请实施例包含的动作类型不限于此。
另外,在本申请中,可以根据动作识别的应用场景来预先设定所有的动作类型,例如,当本申请实施例的动作识别的方法应用到驾驶辅助系统或者自动驾驶系统的场景中时,可以设定人体的动作类型包括行走、奔跑、看手机等等。
此外,在确定了人体的动作属于每种动作类型的置信度之后,可以将其中置信度最高(且大于预设阈值)的动作类型确定为人体的动作类型。例如,确定了人体动作属于跑步、行走、看手机的置信度分别是0.8,0.6和0.3,且置信度阈值为0.5,那么就可以确定人体的动作类型为跑步。
本申请中,根据人体关节的权重集合以及多个特征向量确定人体的动作特征,能够使得待处理视频中与动作密切相关的特征占有较大的比重,与现有方案中对这些特征同等对待的方式相比,能够提高动作识别的准确率。
可选地,作为一个实施例,步骤130中根据多个特征向量确定人体的人体关节的权重系数集合,具体包括:根据多个特征向量以及人体的累计动作信息,确定人体关节的权重系数集合,其中,人体的累计动作信息用于指示当前时刻之前累计的人体的动作特征。所述当前时刻之前人体的累计动作信息可以通过但不限于递归神经网络(如LSTM)获取。
本申请中,在确定人体关节的权重系数集合时,通过考虑当前时刻之前人体的累计动作信息,能够为与动作密切相关的特征向量确定更大的权重系数,进而提高动作识别的准确率。
应理解,确定人体关节的权重系数集合可以是确定多个特征向量中的每个特征向量在该人体关节的权重系数。
具体地,可以根据公式(5)确定每个特征向量在人体关节的权重系数。
在公式(5)中,Ct(k)为待处理视频的位置k处的特征向量,J为人体关节,P为人体关节J所在的人体部分,vJ为人体关节J自身的参数,为人体部分P中各个人体关节公用的参数,为特征向量Ct(k)在人体关节J的权重系数,P为J所在的人体部分,为Ct(k)在人体关节J的权重系数。参数vJ,bP是通过对执行本申请实施例的动作方法的神经网络进行训练得到的。
在公式(6)中,为Ct(k)在人体关节J的未归一化权重系数,为对进行归一化处理后的权重系数,可以表征待处理视频的位置k处的特征向量Ct(k)对动作识别的重要性,越大,就表示Ct(k)对动作识别越重要。同时也可以表示待处理视频的位置k处存在相应人体关节的概率,越大,就表示该位置存在人体关机的可能性越大。
图4示出了左脚踝的权重系数集合中各个权重系数的取值情况,在图4的中,越亮的区域的权重系数越大,图4中的左下角的区域的亮度明显高于图4中的其它区域,这是因为这一部分区域在左脚踝的周围,因此,这部分区域的权重系数较大。为了方便显示人体关节的权重系数集合,一般将人体关节的权重系数集合中各个权重系数的取值情况图叠加到待处理视频中提取出的图片上。具体地,将图4叠加到图5上得到图6,如图6所示,人体左脚踝周围的区域的亮度明显高于其它区域。
当步骤120中的待处理图像包含第一图像和光流图像时,步骤130至步骤160中的处理过程具体如下:
其中,步骤130中对待处理图像进行卷积处理,得到多个特征向量,包括:对第一图像进行卷积处理,得到第一图像的多个特征向量;对光流图像进行卷积处理,得到光流图像的多个特征向量;
步骤140中根据多个特征向量确定人体的人体关节的权重系数集合,包括:根据第一图像的多个特征向量分别确定人体关节的第一类权重系数集合;根据光流图像的多个特征向量确定人体关节的第二类权重系数集合;
步骤150中根据人体关节的权重系数集合对多个特征向量进行加权处理,得到人体关节的动作特征,包括:根据第一类权重系数集合对第一图像的多个特征向量进行加权处理,得到人体关节的第一类动作特征;根据第二类权重系数集合对光流图像的多个特征向量进行加权处理,得到人体关节的第二类动作特征;
步骤160中根据人体关节的动作特征确定人体的动作特征,包括:对人体关节的第一类动作特征和人体关节的第二类动作特征进行加权或组合,得到人体的动作特征。
本申请实施例中,通过对待处理视频中获取的第一图像以及光流图像提取特征,并根据从第一图像和光流图像中提取出来的特征来共同进行动作识别,既考虑到了待处理视频的中的人体动作的空间特征,也考虑到了待处理视频中的人体动作的时间变化特点,能够提高动作识别的准确性。
可选地,在根据人体的动作特征,确定人体的动作类型时,还可以分别根据第一图像和光流图像确定人体的动作特征,然后根据第一图像得到的人体的动作特征确定人体的动作属于每种动作类型的第一类置信度,根据光流图像得到的人体的动作特征确定人体的动作属于每种动作类型的第二类置信度。接下来,对第一类置信度和第二类置信度进行加权处理,得到人体的动作属于每种动作类型的置信度,最后再根据人体的动作属于每种动作类型的置信度确定人体的动作类型。
应理解,这里的第一类置信度是根据待处理图像的动作特征确定的人体属于每种动作类型的置信度,而第二类置信度是根据待处理视频的光流图像确定的人体属于每种动作类型的置信度。
通过综合考虑第一类置信度和第二类置信度,能够更准确地识别出视频中的人体的动作类型。
在对第一类置信度和第二类置信度进行加权处理时,第一类置信度和第二类置信度的加权系数可以相同,此时,对第一类置信度和第二类置信度进行加权处理相当于对第一类置信度和第二类置信度进行平均处理。
可选地,作为一个实施例,在根据多个特征向量之前确定人体关节的权重系数集合之前,图1所示的方法还包括:对执行图1所示的方法的神经网络进行训练,确定神经网络中的参数(该参数可以是神经网络本身的一些参数,或者该参数是该神经网络构成的模型的一些参数),使得该神经网络产生的第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数。
具体地,本申请实施例的动作识别方法可以由神经网络来实现,也就是将待处理视频输入到神经网络中,由神经网络实现对待处理视频中的人体的动作进行识别。在进行动作识别之前,需要对神经网络进行训练,在本申请实施例中可以利用训练视频的中的人体的动作类别和视频中的每帧图片中的人体的姿势对神经网络的训练进行监督,综合考虑动作识别的和姿势估计的误差,使得动作识别和姿势估计的总误差小于一定的阈值。
在对神经网络进行训练时,动作识别和姿势估计的总损失可以满足公式(7)。
Ltotal=λactionLaction+λposeLpose+λΘ||Θ||2 (7)
在公式(7)中,Laction表示动作识别的损失,Lpose表示姿势估计的损失,||Θ||2是正则化项,其表示网络中所有需要学习的参数的模的平方。λaction、λpose和λΘ分别是三者的权重系数。
其中,Laction满足公式(8)。
在训练过程中综合考虑动作识别和姿势估计的误差,能够使得训练出来的神经网络在进行动作识别时取得更好的效果。
下面结合图7对本申请实施例的动作识别的方法进行详细的介绍。
701、获取待处理的视频。
具体地,可以从视频监控系统中获取视频,或者,从人机交互系统中获取视频,或者,从辅助驾驶系统中获取视频等等。应理解,这些视频是包含人体的视频,需要对该视频中的人体的动作类型进行识别。
702、从视频中提取图片。
具体而言,在步骤702中,可以直接从视频中提取当前时刻t的图像It。
703、对图片进行卷积处理。
在步骤703中,可以利用卷积神经网络对步骤702提取的图像It进行卷积处理,得到卷积特征图,然后再根据卷积特征图得到多个特征向量。
704、确定人体关节的权重系数集合。
在公式(10)中J表示不同的人体关节,P表示不同的人体部分,对于同一个人体部分中的不同人体关节,共用相同的参数另外,每个人体关节也具有其自身的参数vJ。这样不但表征了人体关节J的特征,还融入了人体关节J所在的人体部分的信息。
为了更好地理解公式(10),下面举例说明各个参数以及变量的取值情况,例如,vJ为1×32的向量,为3×512的向量,ht-1为512×1的向量,为32×1024的向量,Ct(k)为1024×1的向量,bP为32×1的向量,这样根据公式(10)得到的就是一个具体的数值了。
705、生成人体部分的动作特征。
在步骤705中,具体可以根据步骤703以及步骤704中确定的多个特征向量以及人体关节的权重系数集合来确定人体部分的动作特征。
Ft P能够表征复杂动作中与人体部分P相关的特征。
706、生成人体的动作特征。
具体地,在生成人体的动作特征时可以将步骤705中的得到的不同人体部分的动作特征组合在一起就生成了人体的动作特征St。
707、更新当前时刻之前积累的人体的动作特征。
将步骤706生成的St作为输入,将上一时刻人体积累的动作特征ht-1更新为ht,人体累积的动作特征的更新可以由长短期记忆(Long Short Term Memory,LSTM)模块来实现,LSTM模块可以是属于递归神经网络的一种,具有多种不同的形式,此处使用的可以是基本的LSTM模块,但也可以使用LSTM模块的变体。
708、对视频中的人体的动作进行识别。
具体地,可以将步骤707中最终得到的人体的累积的动作特征ht输入到动作识别模块对动作类型进行识别,具体地,可以根据公式(13)计算ht属于每个动作类别的置信度。
应理解,在上述方法的步骤701之后,还可以从待处理视频中提取若干帧图片,然后根据该若干帧图片生成待处理视频的光流图像。接下来,对光流图像的处理与步骤703至步骤708中的处理完全相同,并且根据光流图像并参照公式(13)得到了人体的动作属于各种动作类型的置信度之后,可以将每一个动作类型对应的由图片计算出来的置信度和与光流图像计算出来的置信度进行平均,然后选择置信度最高的动作类型作为人体的动作类型。
除了对视频中的人体的动作类型进行识别之外,本申请还提出了一种姿势估计方法,用于对视频中的人体的姿势进行估计。姿势估计可以是识别出待处理图片中的人体关节,并确定出人体关节在待处理图片中的位置。
图8是本申请实施例的姿势估计方法。与图1所示的动作识别方法类似,图8所示的姿势估计方法也可以应用在人机交互、视频监控、辅助驾驶以及自动驾驶等需要对视频中的人体动作进行动作识别的场景中,并且,图8所示的姿势估计方法可以由人机交互系统中的机器、视频监控系统、驾驶辅助系统或者自动驾驶系统来执行。
图8所示的方法包括步骤810至步骤860,下面分别对步骤810至步骤860进行介绍。
810、确定待处理视频,该待处理视频为包含人体图像的视频。
步骤810中的待处理视频可以是包含人体相关图像的视频,例如,待处理视频可以是以下视频中的任意一种:视频监控系统监控得到的包含人体相关图像的视频;驾驶辅助系统或者自动驾驶系统获取的包含路人相关图像的视频;人机交互系统所捕获的人体与机器交互的视频。
820、根据待处理视频确定待处理图像。
上述待处理图像可以是下列图像中的至少一种:
第一图像;
光流图像。
其中,第一图像为所述待处理视频中的一帧图像,或者第一图像是待处理视频中的多帧图像合成后得到的图像,光流图像为根据待处理视频中的多帧图像生成的图像。
830、对待处理图像进行卷积处理,得到多个特征向量,其中,该多个特征向量分别用于表示待处理图像在不同位置的特征。
与图1中所示的方法类似,步骤830中对待处理视频进行卷积处理时具体也可以包含三种情况:
情况四:对第一图像进行卷积处理,得到第一图像的多个特征向量。
情况五:对光流图像进行卷积处理,得到光流图像的多个特征向量。
情况六:对第一图像和光流图像进行卷积处理,得到第一图像的多个特征向量和光流图像的多个特征向量。
应理解,在获取光流图像时,可以先从待处理视频中抽取多帧图像,然后再根据抽取的多帧图像来生成待处理视频的光流图像。
840、根据多个特征向量确定人体的人体关节的权重系数集合。
应理解,在步骤840中人体关节的数量为多个,根据多个特征向量是要确定每个人体关节的权重系数集合,也就是说每一个人体关节都有一个权重系数集合。
另外,在步骤840中,人体关节的权重系数集合包括多个特征向量中的每个特征向量在人体关节的权重系数,并且,多个特征向量中的第一类特征向量的权重系数大于或者等于多个特征向量中的第二类特征向量的权重系数,其中,第一类特征向量对应在待处理图像中的位置和人体关节对应在待处理图像中的位置之间的距离为第一距离,第二类特征向量对应在待处理图像中的位置和人体关节对应在待处理图像中的位置之间的距离为第二距离,第一距离小于或者等于第二距离。
可选地,作为一个实施例,步骤840中根据多个特征向量确定人体的人体关节的权重系数集合,具体包括:根据多个特征向量以及人体的累计动作信息,确定人体关节的权重系数集合,其中,人体的累计动作信息用于指示当前时刻之前累计的人体的动作特征。
在确定人体关节的权重系数集合时,通过考虑当前时刻之前人体的累计动作信息,能够为与动作密切相关的特征向量确定更大的权重系数,进而提高姿势估计的准确率。
应理解,确定人体关节的权重系数集合可以是确定多个特征向量中的每个特征向量在该人体关节的权重系数。
具体地,可以根据上文中的公式(5)和公式(6)来确定每个特征向量在人体关节的权重系数。
850、将多个特征向量中的第一特征向量对应在待处理图像中的区域确定为人体关节的位置。
在步骤850中,第一特征向量的权重系数为第一权重系数,第一权重系数为人体关节的权重系数集合中大于预设阈值的权重系数。
应理解,在步骤850中,上述第一权重系数还可以是人体关节(这里的人体关节可以是人体的任意一个人体关节,例如,头部,左脚踝等等)的权重系数集合中最大的权重系数。
860、根据人体关节的位置,确定人体的姿势。
在步骤860中,可以将人体关节的位置标记出来,并将各个人体关节相连,这样就确定了人体的姿势。
本申请中,根据人体关节的权重集合来估计视频中的人体的姿势,能够使得待处理视频中与动作密切相关的特征占有较大的比重,与现有方案中从待处理视频中的图像中提取的全部特征来进行姿势估计的方式相比,能够更准确地确定视频中的人体的姿势。
当步骤820中的待处理图像包含第一图像和光流图像时,步骤830和步骤840中的处理过程具体如下:
其中,步骤830中对待处理图像进行卷积处理,得到多个特征向量,包括:对第一图像进行卷积处理,得到第一图像的多个特征向量;对光流图像进行卷积处理,得到光流图像的多个特征向量;
步骤840中根据多个特征向量确定人体的人体关节的权重系数集合,包括:根据第一图像的多个特征向量分别确定人体关节的第一类权重系数集合;根据光流图像的多个特征向量确定人体关节的第二类权重系数集合;根据第一类权重系数集合和第二类权重系数集合,确定人体关节的权重系数集合。
本申请实施例中,通过从待处理视频中获取待处理图像和光流图像,并根据从待处理图像和光流图像得到的权重系数集合来进行姿势估计,能够提高姿势估计的准确性。
可选地,作为一个实施例,根据第一类权重系数集合和第二类权重系数集合,确定人体关节的权重系数集合,包括:对第一类权重系数集合和第二类权重系数集合进行加权处理,得到人体关节的权重系数集合。
本申请中,通过对第一类权重系数集合和第二类权重系数集合进行加权处理,能够根据第一图像和光流图像对姿势估计的重要性来合理确定权重,从而能够根据得到的人体关节的权重系数集合更好地进行姿势估计。
应理解,图7所示的方法除了可以进行动作识别之外,还可以对视频中的人体进行姿势估计,具体地,当图7所示的方法对光流图像采用与图片相同的处理之后,还可以对光流图像以及待处理图片得到的每个人体关节的权重系数集合中的相应的权重值进行平均,然后选择平均后的权重系数集合中的权重系数最大的位置作为该人体关节的估计位置。接下来,采用同样的方式估计出其它人体关节的位置,并将关节位置进行连线,从而实现了对人体的姿势估计。
下面对本申请实施例的动作识别方法和姿势估计方法的可能的应用场景进行介绍。
本申请实施例的动作识别方法和姿势估计方法可以应用在以下几种场景中。
场景一:行人行为分析预警系统
在自动驾驶系统(Autonomous Driving System,ADS)或者高级辅助驾驶系统(Advanced Driving Assistant System,ADAS)中,如何避免碰撞行人是一个非常重要的问题,为了解决该问题,一般是识别出路上的行人并计算行人与汽车之间的距离来避免碰撞行人。但是仅仅计算行人与汽车之间的距离并不能很好地避免碰撞行人。本申请的动作识别方法可以应用在行人行为分析预警系统中,对行人的动作类型进行识别,进而得到行人的动作类型,接下来,可以根据行人的动作类型分析对驾驶的威胁程度,例如,行人的行走对驾驶的威胁程度较小,行人在跑步或者看手机对驾驶的威胁程度较大。通过识别出对驾驶威胁程度较大的行为,可以提前进行预警或者进行相应的处理措施。
场景二:驾驶员危险行为提醒系统
很多交通事故是由于驾驶员的疏忽造成的,如驾驶员开车时看手机或者在开车时作出其它的危险行为等等。本申请的动作识别的方法可以应用在驾驶员危险行为提醒系统中,以及时发现驾驶员的危险行为并对发出警告,从而降低交通事故的发生率。
如图9所示,驾驶员危险行为提醒系统包括车内摄像机、动作识别模块和危险行为提醒模块。图9所示的驾驶员危险行为提醒系统可以应用在ADAS中,驾驶员危险行为提醒系统通过车内摄像头采集驾驶员的视频,通过动作识别模块(该动作识别模块具体可以采用本申请实施例的动作识别的方法对驾驶员的动作进行识别)识别出驾驶员的动作,如正常驾驶、看手机等,当驾驶员的动作对驾驶构成威胁时,危险行为提醒模块对驾驶员提出警告。
场景三:人机交互系统
在人机交互系统中可以采用本申请实施例的动作识别方法和姿势估计方法对玩家的视频进行处理,从而识别出人体的动作(如:攻击、防守等)和姿势(主要人体关节的位置)。接下来,人机交互系统可以根据识别出来的动作执行相应的操作(如:攻击、防守等),另外根据识别的姿势在屏幕上显示与玩家一样动作的人物,从而提高人机交互的体验。
场景四:平安城市中危险行为识别系统
如图10所示,平安城市中的危险行为识别系统可以包括城市监控摄像机、动作识别模块和危险行为报警模块。危险行为识别系统通过城市监控摄像机采集的视频,通过动作识别模块(该动作识别模块具体可以采用本申请实施例的动作识别的方法对人的动作进行识别)识别出监控视频中人的动作,当监控视频中的人出现危险行为(如抢劫、行凶、斗殴等)时,通过危险报警模块向相关部分发出报警信息。
应理解,除了上述场景一至场景四之外,本申请实施例的动作识别方法和姿势估计方法还可以应用在其它需要对视频中的人体进行动作识别或者姿势估计的场景中。
上文结合图1至图10对本申请实施例的动作识别方法和姿势估计方法进行了详细的介绍,下面结合图11至图19对本申请实施例的装置进行介绍,应理解,图11至图14所示的动作识别装置1100至动作识别装置1400可以执行本申请实施例的动作识别方法,图15至图18所示的姿势估计装置1500至姿势估计装置1800可以执行本申请实施例的姿势估计方法。图19所示的动作识别和姿势估计装置1900既可以执行本申请实施例的动作识别方法也可以执行本申请实施例的姿势估计方法。
图11是本申请实施例的动作识别装置的示意性框图。图11的动作识别装置1100包括:
确定模块1110,用于确定待处理视频,所述待处理视频为包含人体图像的视频;
所述确定模块1110还用于根据所述待处理视频确定待处理图像,所述待处理图像为下列图像中的至少一种:第一图像,根据所述待处理视频中的多帧图像生成的光流图像,其中,所述第一图像为所述待处理视频中的任意一帧图像,或者,所述第一图像为所述待处理视频中的多帧图像合成的图像;
卷积模块1120,用于对所述待处理图像进行卷积处理,得到多个特征向量,其中,所述多个特征向量分别用于表示所述待处理图像不同位置的特征;
处理模块1130,用于根据所述多个特征向量确定所述人体的人体关节的权重系数集合,其中,所述人体关节的权重系数集合包括所述多个特征向量中的每个特征向量在所述人体关节的权重系数,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,所述第一类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第一距离,所述第二类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第二距离,所述第一距离小于或者等于所述第二距离,所述人体关节的数量为多个,每个人体关节均对应一个权重系数集合;
特征提取模块1140,用于根据所述人体关节的权重系数集合对所述多个特征向量进行加权处理,得到所述人体关节的动作特征;
所述特征提取模块1140还用于根据所述人体关节的动作特征确定所述人体的动作特征;
动作识别模块1150,用于根据所述人体的动作特征,确定所述人体的动作类型。
本申请中,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,而第一类特征向量对应在待处理图像中的位置与人体关节对应在待处理图像中的位置的距离要小于或者等于第二类特征向量对应在待处理图像中的位置与人体关节对应在待处理图像中的位置的距离,因此,在本申请中,离人体关节越近的区域对应的特征向量的权重系数越大,这样能够使得待处理图像中与动作密切相关的特征在动作识别时占有较大的比重,而待处理图像中与动作不太相关的特征在动作识别时占有较小的比重,本申请在动作识别时充分考虑了待处理图像不同区域的特征在动作识别中的重要性,能够得到更加鲁棒的动作特征,从而能够提高动作识别的准确率。
可选地,作为一个实施例,所述处理模块1130具体用于:
根据所述多个特征向量以及所述人体的累计动作信息,确定所述人体关节的权重系数集合,其中,所述人体的累计动作信息用于指示当前时刻之前累计的所述人体的动作特征。
可选地,作为一个实施例,所述特征提取模块1140具体用于:
对所述人体关节的动作特征进行加权或者组合,得到所述人体的动作特征。
可选地,作为一个实施例,所述特征提取模块1140具体用于:
对所述人体关节的动作特征进行加权或者组合,得到人体部分的动作特征,其中,所述人体包含多个所述人体部分,每个人体部分包含至少一个人体关节;
对所述人体部分的动作特征进行加权或者组合,得到所述人体的动作特征。
可选地,作为一个实施例,所述待处理图像包括所述第一图像和所述光流图像,所述卷积模块1120具体用于:
对所述第一图像进行卷积处理,得到所述第一图像的多个特征向量;
对所述光流图像进行卷积处理,得到所述光流图像的多个特征向量;
所述处理模块1130具体用于:
根据所述第一图像的多个特征向量分别确定所述人体关节的第一类权重系数集合;
根据所述光流图像的多个特征向量确定所述人体关节的第二类权重系数集合;
所述特征提取模块1140具体用于:
根据所述第一类权重系数集合对所述第一图像的多个特征向量进行加权处理,得到所述人体关节的第一类动作特征;
根据所述第二类权重系数集合对所述光流图像的多个特征向量进行加权处理,得到所述人体关节的第二类动作特征;
对所述人体关节的第一类动作特征和所述人体关节的第二类动作特征进行加权或组合,得到所述人体的动作特征。
图12是本申请实施例的动作识别装置的示意性框图。图12所示的动作识别装置1200包括:视频输入模块1201;图片提取模块1202;CNN模块1203;特征提取模块1204;LSTM模块1205;动作识别模块1206。
图13是本申请实施例的动作识别装置的示意性框图。
图13所示的动作识别装置1300包括:视频输入模块1301;光流计算模块1302;CNN模块1303;特征提取模块1304;LSTM模块1305;动作识别模块1306。
图14是本申请实施例的动作识别装置的示意性框图。
图14所示的动作识别装置1200包括:视频输入模块1401;图片提取模块1402;CNN模块1403;特征提取模块1404;LSTM模块1405;光流计算模块1406;CNN模块1407;特征提取模块1408;LSTM模块1409;动作识别模块1410。
图12中的动作识别装置1200是根据待处理视频中的某一帧图片对视频中的人体的动作进行识别,图13中的动作识别装置1300是根据光流图像对视频中的人体的动作进行识别,其中,这里的光流图像为根据待处理视频中的多帧图像生成的图像。
另外,对于图13的动作识别装置1400来说,装置1400既对待处理视频中提取出来的图片进行特征提取,也对光流图进行特征提取,在最后由动作识别模块1410根据从待处理视频提取出来的图片中提取的特征以及从光流图中提取出来的特征进行动作识别。这样既考虑到了待处理视频的中的人体动作的空间特征,也考虑到了待处理视频中的人体动作的时间变化特点,能够提高动作识别的准确性。
应理解,上述动作识别装置1100、动作识别装置1200、动作识别装置1300以及动作识别装置1400可以应用在上文中的场景一至场景四中,用于对视频中的人体进行动作识别。具体地,这些动作识别装置1100至1400可以是上述场景一至场景四中的系统中的设备,用于在相应的场景下对视频中的人体进行动作识别。
图15是本申请实施例的姿势估计装置的示意性框图。图15的姿势估计装置1500包括:
确定模块1510,用于确定待处理视频,所述待处理视频为包含人体图像的视频;
所述确定模块1510还用于根据所述待处理视频确定待处理图像,所述待处理图像为下列图像中的至少一种:第一图像,根据所述待处理视频中的多帧图像生成的光流图像,其中,所述第一图像为所述待处理视频中的任意一帧图像,或者,所述第一图像为所述待处理视频中的多帧图像合成的图像;
卷积模块1520,用于对所述待处理图像进行卷积处理,得到多个特征向量,其中,所述多个特征向量分别用于表示所述待处理图像不同位置的特征;
处理模块1530,用于根据所述多个特征向量确定所述人体的人体关节的权重系数集合,所述人体关节的权重系数集合包括所述多个特征向量中的每个特征向量在所述人体关节的权重系数,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,所述第一类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第一距离,所述第二类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第二距离,所述第一距离小于或者等于所述第二距离,所述人体关节的数量为多个,每个人体关节均对应一个权重系数集合;
姿势估计模块1540,用于将所述多个特征向量中的第一特征向量对应在所述待处理图像中的区域确定为所述人体关节的位置,其中,所述第一特征向量的权重系数为第一权重系数,所述第一权重系数为所述人体关节的权重系数集合中大于预设阈值的权重系数;
所述姿势估计模块1540还用于根据所述人体关节的位置,确定所述人体的姿势。
本申请中,根据人体关节的权重集合来估计视频中的人体的姿势,能够使得待处理视频中与动作密切相关的特征占有较大的比重,与现有方案中从待处理视频中的图像中提取的全部特征来进行姿势估计的方式相比,能够更准确地确定视频中的人体的姿势。
可选地,作为一个实施例,所述处理模块1530具体用于:
根据所述多个特征向量以及所述人体的累计动作信息,确定所述人体关节的权重系数集合,其中,所述人体的累计动作信息用于指示当前时刻之前累计的所述人体的动作特征。
可选地,作为一个实施例,所述待处理图像包括所述第一图像和所述光流图像,所述卷积模块1520具体用于:
对所述第一图像进行卷积处理,得到所述第一图像的多个特征向量;
对所述光流图像进行卷积处理,得到所述光流图像的多个特征向量;
所述处理模块1530具体用于:
根据所述第一图像的多个特征向量分别确定所述人体关节的第一类权重系数集合;
根据所述光流图像的多个特征向量确定所述人体关节的第二类权重系数集合;
根据所述第一类权重系数集合和所述第二类权重系数集合,确定所述人体关节的权重系数集合。
可选地,作为一个实施例,所述处理模块1530具体用于对所述第一类权重系数集合和所述第二类权重系数集合进行加权处理,得到所述人体关节的权重系数集合。
图16是本申请实施例的姿势估计装置的示意性框图。
图16的姿势估计装置1600包括:视频输入模块1601;图片提取模块1602;CNN模块1603;特征提取模块1604;姿势估计模块1605。
图17是本申请实施例的姿势估计装置的示意性框图。
图17的姿势估计装置1700包括:视频输入模块1701;光流计算模块1702;CNN模块1703;特征提取模块1704;姿势估计模块1705。
图18是本申请实施例的姿势估计装置的示意性框图。
图18所示的姿势估计装置1800包括:视频输入模块1801;图片提取模块1802;CNN模块1803;特征提取模块1804;光流计算模块1805;CNN模块1806;特征提取模块1807;姿势估计模块1808。
图16中的姿势估计装置1600是根据待处理视频中的某一帧图片对视频中的人体的姿势进行估计,图17中的姿势估计装置1700是根据光流图像对视频中的人体的姿势进行估计,其中,这里的光流图像为根据待处理视频中的多帧图像生成的图像。
另外,对于图18的姿势估计装置1800来说,装置1800既对待处理视频中提取出来的图片进行特征提取,也对光流图进行特征提取,在最后由姿势估计模块1808根据从待处理视频提取出来的图片中提取的特征以及从光流图中提取出来的特征进行姿势估计。这样既考虑到了待处理视频的中的人体动作的空间特征,也考虑到了待处理视频中的人体动作的时间变化特点,能够提高姿势估计的准确性。
应理解,上述姿势估计装置1500、作姿势估计装置1600、作姿势估计装置1700以及作姿势估计装置1800可以应用在上文中的场景一至场景四中,用于对视频中的人体的姿势进行动作识别。具体地,这些姿势估计装置1500至1800可以是上述场景一至场景四中的系统中的设备,用于在相应的场景下对视频中的人体的姿势进行估计。
图19是本申请实施例的动作识别和姿势估计装置的示意性框图。图19的动作识别和姿势估计装置1900包括:视频输入模块1901;图片提取模块1902;CNN模块1903;特征提取模块1904;LSTM模块1905;光流计算模块1906;CNN模块1907;特征提取模块1908;LSTM模块1909;动作识别模块1910;姿势估计模块1911。
图19中的动作识别和姿势估计装置1900既对待处理视频中提取出来的图片进行特征提取,也对光流图进行特征提取,并且,姿势估计装置1900既能够进行动态估计也能够进行姿势估计,在实现对视频中的人体进行动作识别的过程中也实现对视频中的实体进行姿势估计。
本申请提供了一种动作识别装置,所述装置包括存储介质和中央处理器,所述存储介质可以是非易失性存储介质,所述存储介质中存储有计算机可执行程序,所述中央处理器与所述非易失性存储介质连接,并执行所述计算机可执行程序以实现本申请实施例的动作识别方法。
本申请提供了一种姿势估计装置,所述装置包括存储介质和中央处理器,所述存储介质可以是非易失性存储介质,所述存储介质中存储有计算机可执行程序,所述中央处理器与所述非易失性存储介质连接,并执行所述计算机可执行程序以实现本申请实施例的姿势估计方法。
本申请提供了一种芯片,所述芯片包括处理器与通信接口,所述通信接口用于与外部器件进行通信,所述处理器用于执行本申请实施例的动作识别方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行本申请实施例的动作识别方法。
本申请提供了一种芯片,所述芯片包括处理器与通信接口,所述通信接口用于与外部器件进行通信,所述处理器用于执行本申请实施例的姿势估计方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行本申请实施例的姿势估计方法。
本申请提供了一种计算机可读存储介质,所述计算机可读介质存储用于设备执行的程序代码,所述程序代码包括用于执行本申请实施例的动作识别方法。
本申请提供了一种计算机可读存储介质,所述计算机可读介质存储用于设备执行的程序代码,所述程序代码包括用于执行本申请实施例的信道质量信息的姿势估计方法。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (18)
1.一种动作识别方法,其特征在于,包括:
确定待处理视频,所述待处理视频为包含人体图像的视频;
根据所述待处理视频确定待处理图像,所述待处理图像为下列图像中的至少一种:第一图像,根据所述待处理视频中的多帧图像生成的光流图像,其中,所述第一图像为所述待处理视频中的任意一帧图像,或者,所述第一图像为所述待处理视频中的多帧图像合成的图像;
对所述待处理图像进行卷积处理,得到多个特征向量,其中,所述多个特征向量分别用于表示所述待处理图像不同位置的特征;
根据所述多个特征向量确定人体的人体关节的权重系数集合,其中,所述人体关节的权重系数集合包括所述多个特征向量中的每个特征向量在所述人体关节的权重系数,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,所述第一类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第一距离,所述第二类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第二距离,所述第一距离小于或者等于所述第二距离,所述人体关节的数量为多个,每个人体关节均对应一个权重系数集合;
根据所述人体关节的权重系数集合对所述多个特征向量进行加权处理,得到所述人体关节的动作特征;
根据所述人体关节的动作特征确定所述人体的动作特征;
根据所述人体的动作特征,确定所述人体的动作类型。
2.如权利要求1所述的方法,其特征在于,所述根据所述多个特征向量确定所述人体的人体关节的权重系数集合,包括:
根据所述多个特征向量以及所述人体的累计动作信息,确定所述人体关节的权重系数集合,其中,所述人体的累计动作信息用于指示当前时刻之前累计的所述人体的动作特征。
3.如权利要求1或2所述的方法,其特征在于,所述根据所述人体关节的动作特征确定所述人体的动作特征,包括:
对所述人体关节的动作特征进行加权或者组合,得到所述人体的动作特征。
4.如权利要求1或2所述的方法,其特征在于,所述根据所述人体关节的动作特征确定所述人体的动作特征,包括:
对所述人体关节的动作特征进行加权或者组合,得到人体部分的动作特征,其中,所述人体包含多个所述人体部分,每个人体部分包含至少一个人体关节;
对所述人体部分的动作特征进行加权或者组合,得到所述人体的动作特征。
5.如权利要求1或2所述的方法,其特征在于,所述待处理图像包括所述第一图像和所述光流图像,所述对所述待处理图像进行卷积处理,得到多个特征向量,包括:
对所述第一图像进行卷积处理,得到所述第一图像的多个特征向量;
对所述光流图像进行卷积处理,得到所述光流图像的多个特征向量;
所述根据所述多个特征向量确定所述人体的人体关节的权重系数集合,包括:
根据所述第一图像的多个特征向量分别确定所述人体关节的第一类权重系数集合;
根据所述光流图像的多个特征向量确定所述人体关节的第二类权重系数集合;
所述根据所述人体关节的权重系数集合对所述多个特征向量进行加权处理,得到所述人体关节的动作特征,包括:
根据所述第一类权重系数集合对所述第一图像的多个特征向量进行加权处理,得到所述人体关节的第一类动作特征;
根据所述第二类权重系数集合对所述光流图像的多个特征向量进行加权处理,得到所述人体关节的第二类动作特征;
所述根据所述人体关节的动作特征确定所述人体的动作特征,包括:
对所述人体关节的第一类动作特征和所述人体关节的第二类动作特征进行加权或组合,得到所述人体的动作特征。
6.一种姿势估计方法,其特征在于,包括:
确定待处理视频,所述待处理视频为包含人体图像的视频;
根据所述待处理视频确定待处理图像,所述待处理图像为下列图像中的至少一种:第一图像,根据所述待处理视频中的多帧图像生成的光流图像,其中,所述第一图像为所述待处理视频中的任意一帧图像,或者,所述第一图像为所述待处理视频中的多帧图像合成的图像;
对所述待处理图像进行卷积处理,得到多个特征向量,其中,所述多个特征向量分别用于表示所述待处理图像不同位置的特征;
根据所述多个特征向量确定人体的人体关节的权重系数集合,所述人体关节的权重系数集合包括所述多个特征向量中的每个特征向量在所述人体关节的权重系数,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,所述第一类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第一距离,所述第二类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第二距离,所述第一距离小于或者等于所述第二距离,所述人体关节的数量为多个,每个人体关节均对应一个权重系数集合;
将所述多个特征向量中的第一特征向量对应在所述待处理图像中的区域确定为所述人体关节的位置,其中,所述第一特征向量的权重系数为第一权重系数,所述第一权重系数为所述人体关节的权重系数集合中大于预设阈值的权重系数;
根据所述人体关节的位置,确定所述人体的姿势。
7.如权利要求6所述的方法,其特征在于,所述根据所述多个特征向量确定所述人体的人体关节的权重系数集合,包括:
根据所述多个特征向量以及所述人体的累计动作信息,确定所述人体关节的权重系数集合,其中,所述人体的累计动作信息用于指示当前时刻之前累计的所述人体的动作特征。
8.如权利要求6或7所述的方法,其特征在于,所述待处理图像包括所述第一图像和所述光流图像,所述对所述待处理图像进行卷积处理,得到多个特征向量,包括:
对所述第一图像进行卷积处理,得到所述第一图像的多个特征向量;
对所述光流图像进行卷积处理,得到所述光流图像的多个特征向量;
所述根据所述多个特征向量确定所述人体的人体关节的权重系数集合,包括:
根据所述第一图像的多个特征向量分别确定所述人体关节的第一类权重系数集合;
根据所述光流图像的多个特征向量确定所述人体关节的第二类权重系数集合;
根据所述第一类权重系数集合和所述第二类权重系数集合,确定所述人体关节的权重系数集合。
9.如权利要求8所述的方法,其特征在于,所述根据所述第一类权重系数集合和所述第二类权重系数集合,确定所述人体关节的权重系数集合,包括:
对所述第一类权重系数集合和所述第二类权重系数集合进行加权处理,得到所述人体关节的权重系数集合。
10.一种动作识别装置,其特征在于,包括:
确定模块,用于确定待处理视频,所述待处理视频为包含人体图像的视频;
所述确定模块还用于根据所述待处理视频确定待处理图像,所述待处理图像为下列图像中的至少一种:第一图像,根据所述待处理视频中的多帧图像生成的光流图像,其中,所述第一图像为所述待处理视频中的任意一帧图像,或者,所述第一图像为所述待处理视频中的多帧图像合成的图像;
卷积模块,用于对所述待处理图像进行卷积处理,得到多个特征向量,其中,所述多个特征向量分别用于表示所述待处理图像不同位置的特征;
处理模块,用于根据所述多个特征向量确定人体的人体关节的权重系数集合,其中,所述人体关节的权重系数集合包括所述多个特征向量中的每个特征向量在所述人体关节的权重系数,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,所述第一类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第一距离,所述第二类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第二距离,所述第一距离小于或者等于所述第二距离,所述人体关节的数量为多个,每个人体关节均对应一个权重系数集合;
特征提取模块,用于根据所述人体关节的权重系数集合对所述多个特征向量进行加权处理,得到所述人体关节的动作特征;
所述特征提取模块还用于根据所述人体关节的动作特征确定所述人体的动作特征;
动作识别模块,用于根据所述人体的动作特征,确定所述人体的动作类型。
11.如权利要求10所述的装置,其特征在于,所述处理模块具体用于:
根据所述多个特征向量以及所述人体的累计动作信息,确定所述人体关节的权重系数集合,其中,所述人体的累计动作信息用于指示当前时刻之前累计的所述人体的动作特征。
12.如权利要求10或11所述的装置,其特征在于,所述特征提取模块具体用于:
对所述人体关节的动作特征进行加权或者组合,得到所述人体的动作特征。
13.如权利要求10或11所述的装置,其特征在于,所述特征提取模块具体用于:
对所述人体关节的动作特征进行加权或者组合,得到人体部分的动作特征,其中,所述人体包含多个所述人体部分,每个人体部分包含至少一个人体关节;
对所述人体部分的动作特征进行加权或者组合,得到所述人体的动作特征。
14.如权利要求10或11所述的装置,其特征在于,所述待处理图像包括所述第一图像和所述光流图像,所述卷积模块具体用于:
对所述第一图像进行卷积处理,得到所述第一图像的多个特征向量;
对所述光流图像进行卷积处理,得到所述光流图像的多个特征向量;
所述处理模块具体用于:
根据所述第一图像的多个特征向量分别确定所述人体关节的第一类权重系数集合;
根据所述光流图像的多个特征向量确定所述人体关节的第二类权重系数集合;
所述特征提取模块具体用于:
根据所述第一类权重系数集合对所述第一图像的多个特征向量进行加权处理,得到所述人体关节的第一类动作特征;
根据所述第二类权重系数集合对所述光流图像的多个特征向量进行加权处理,得到所述人体关节的第二类动作特征;
对所述人体关节的第一类动作特征和所述人体关节的第二类动作特征进行加权或组合,得到所述人体的动作特征。
15.一种姿势估计装置,其特征在于,包括:
确定模块,用于确定待处理视频,所述待处理视频为包含人体图像的视频;
所述确定模块还用于根据所述待处理视频确定待处理图像,所述待处理图像为下列图像中的至少一种:第一图像,根据所述待处理视频中的多帧图像生成的光流图像,其中,所述第一图像为所述待处理视频中的任意一帧图像,或者,所述第一图像为所述待处理视频中的多帧图像合成的图像;
卷积模块,用于对所述待处理图像进行卷积处理,得到多个特征向量,其中,所述多个特征向量分别用于表示所述待处理图像不同位置的特征;
处理模块,用于根据所述多个特征向量确定人体的人体关节的权重系数集合,所述人体关节的权重系数集合包括所述多个特征向量中的每个特征向量在所述人体关节的权重系数,第一类特征向量的权重系数大于或者等于第二类特征向量的权重系数,所述第一类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第一距离,所述第二类特征向量对应在所述待处理图像中的位置和所述人体关节对应在所述待处理图像中的位置之间的距离为第二距离,所述第一距离小于或者等于所述第二距离,所述人体关节的数量为多个,每个人体关节均对应一个权重系数集合;
姿势估计模块,用于将所述多个特征向量中的第一特征向量对应在所述待处理图像中的区域确定为所述人体关节的位置,其中,所述第一特征向量的权重系数为第一权重系数,所述第一权重系数为所述人体关节的权重系数集合中大于预设阈值的权重系数;
所述姿势估计模块还用于根据所述人体关节的位置,确定所述人体的姿势。
16.如权利要求15所述的装置,其特征在于,所述处理模块具体用于:
根据所述多个特征向量以及所述人体的累计动作信息,确定所述人体关节的权重系数集合,其中,所述人体的累计动作信息用于指示当前时刻之前累计的所述人体的动作特征。
17.如权利要求15或16所述的装置,其特征在于,所述待处理图像包括所述第一图像和所述光流图像,所述卷积模块具体用于:
对所述第一图像进行卷积处理,得到所述第一图像的多个特征向量;
对所述光流图像进行卷积处理,得到所述光流图像的多个特征向量;
所述处理模块具体用于:
根据所述第一图像的多个特征向量分别确定所述人体关节的第一类权重系数集合;
根据所述光流图像的多个特征向量确定所述人体关节的第二类权重系数集合;
根据所述第一类权重系数集合和所述第二类权重系数集合,确定所述人体关节的权重系数集合。
18.如权利要求17所述的装置,其特征在于,所述处理模块具体用于对所述第一类权重系数集合和所述第二类权重系数集合进行加权处理,得到所述人体关节的权重系数集合。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710955087.1A CN109670380B (zh) | 2017-10-13 | 2017-10-13 | 动作识别、姿势估计的方法及装置 |
PCT/CN2018/110078 WO2019072243A1 (zh) | 2017-10-13 | 2018-10-12 | 动作识别、姿势估计的方法及装置 |
EP18866516.0A EP3690702A4 (en) | 2017-10-13 | 2018-10-12 | METHOD AND DEVICE FOR RECOGNITION OF MOVEMENT AND PREDICTION OF GESTURES |
US16/846,890 US11478169B2 (en) | 2017-10-13 | 2020-04-13 | Action recognition and pose estimation method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710955087.1A CN109670380B (zh) | 2017-10-13 | 2017-10-13 | 动作识别、姿势估计的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109670380A CN109670380A (zh) | 2019-04-23 |
CN109670380B true CN109670380B (zh) | 2022-12-27 |
Family
ID=66100403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710955087.1A Active CN109670380B (zh) | 2017-10-13 | 2017-10-13 | 动作识别、姿势估计的方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11478169B2 (zh) |
EP (1) | EP3690702A4 (zh) |
CN (1) | CN109670380B (zh) |
WO (1) | WO2019072243A1 (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3753489B1 (en) | 2018-05-28 | 2022-01-05 | Kaia Health Software GmbH | Monitoring the performance of physical exercises |
US11669743B2 (en) | 2019-05-15 | 2023-06-06 | Huawei Technologies Co., Ltd. | Adaptive action recognizer for video |
US10620713B1 (en) * | 2019-06-05 | 2020-04-14 | NEX Team Inc. | Methods and systems for touchless control with a mobile device |
CN111325083B (zh) * | 2019-08-01 | 2024-02-23 | 杭州海康威视系统技术有限公司 | 记录考勤信息的方法和装置 |
CN111325144A (zh) * | 2020-02-19 | 2020-06-23 | 上海眼控科技股份有限公司 | 行为检测方法、装置、计算机设备和计算机可读存储介质 |
CN113312943A (zh) * | 2020-02-27 | 2021-08-27 | 华为技术有限公司 | 视频的动作识别方法和装置 |
JP7413836B2 (ja) | 2020-02-28 | 2024-01-16 | 富士通株式会社 | 行動認識方法、行動認識プログラム及び行動認識装置 |
US10911775B1 (en) * | 2020-03-11 | 2021-02-02 | Fuji Xerox Co., Ltd. | System and method for vision-based joint action and pose motion forecasting |
TWI733420B (zh) * | 2020-04-22 | 2021-07-11 | 國立中央大學 | 動作辨識系統 |
CN111797705A (zh) * | 2020-06-11 | 2020-10-20 | 同济大学 | 一种基于人物关系建模的动作识别方法 |
WO2022032652A1 (en) * | 2020-08-14 | 2022-02-17 | Intel Corporation | Method and system of image processing for action classification |
CN112132861B (zh) * | 2020-08-17 | 2024-04-26 | 浙江大华技术股份有限公司 | 一种车辆事故监测方法、系统和计算机设备 |
CN112215160B (zh) * | 2020-10-13 | 2023-11-24 | 厦门大学 | 一种利用长短期信息融合的视频三维人体姿态估计算法 |
CN114494087A (zh) * | 2020-11-12 | 2022-05-13 | 安霸国际有限合伙企业 | 无监督的多尺度视差/光流融合 |
CN112932470B (zh) * | 2021-01-27 | 2023-12-29 | 上海萱闱医疗科技有限公司 | 俯卧撑训练的评估方法及装置、设备、存储介质 |
CN112990060B (zh) * | 2021-03-30 | 2024-05-28 | 北京工业大学 | 一种关节点分类和关节点推理的人体姿态估计分析方法 |
US12094222B2 (en) | 2021-11-30 | 2024-09-17 | Automotive Research & Testing Center | Cabin monitoring and situation understanding perceiving method and system thereof |
CN114399841A (zh) * | 2022-01-25 | 2022-04-26 | 台州学院 | 一种人机协作装配场景下的人体行为识别方法 |
CN114550047B (zh) * | 2022-02-22 | 2024-04-05 | 西安交通大学 | 一种行为速率引导的视频行为识别方法 |
CN115050013A (zh) * | 2022-06-14 | 2022-09-13 | 南京人工智能高等研究院有限公司 | 一种行为检测方法、装置、车辆、存储介质和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104123007A (zh) * | 2014-07-29 | 2014-10-29 | 电子科技大学 | 一种多维加权的3d动态手势识别方法 |
CN104200197A (zh) * | 2014-08-18 | 2014-12-10 | 北京邮电大学 | 三维人体行为识别方法及装置 |
CN105787439A (zh) * | 2016-02-04 | 2016-07-20 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN106682594A (zh) * | 2016-12-13 | 2017-05-17 | 中国科学院软件研究所 | 基于动态网格编码的姿势和动作识别方法 |
CN107169415A (zh) * | 2017-04-13 | 2017-09-15 | 西安电子科技大学 | 基于卷积神经网络特征编码的人体动作识别方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6681031B2 (en) * | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
JP5506273B2 (ja) * | 2009-07-31 | 2014-05-28 | 富士フイルム株式会社 | 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム |
US8345984B2 (en) | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
US10033979B2 (en) * | 2012-03-23 | 2018-07-24 | Avigilon Fortress Corporation | Video surveillance systems, devices and methods with improved 3D human pose and shape modeling |
US20160092726A1 (en) * | 2014-09-30 | 2016-03-31 | Xerox Corporation | Using gestures to train hand detection in ego-centric video |
CN104899554A (zh) | 2015-05-07 | 2015-09-09 | 东北大学 | 一种基于单目视觉的车辆测距方法 |
CN105069413B (zh) | 2015-07-27 | 2018-04-06 | 电子科技大学 | 一种基于深度卷积神经网络的人体姿势识别方法 |
CN105551182A (zh) | 2015-11-26 | 2016-05-04 | 吉林大学 | 基于Kinect人体姿势识别的驾驶状态监测系统 |
US20170169289A1 (en) * | 2015-12-15 | 2017-06-15 | Le Holdings(Beijing)Co., Ltd. | Hand recognizing method, system, and storage medium |
CN105913559B (zh) * | 2016-04-06 | 2019-03-05 | 南京华捷艾米软件科技有限公司 | 一种基于体感技术的银行atm机智能监控方法 |
CN106570480B (zh) | 2016-11-07 | 2019-04-19 | 南京邮电大学 | 一种基于姿势识别的人体动作分类方法 |
CN107219925B (zh) * | 2017-05-27 | 2021-02-26 | 成都通甲优博科技有限责任公司 | 姿势检测方法、装置及服务器 |
-
2017
- 2017-10-13 CN CN201710955087.1A patent/CN109670380B/zh active Active
-
2018
- 2018-10-12 WO PCT/CN2018/110078 patent/WO2019072243A1/zh unknown
- 2018-10-12 EP EP18866516.0A patent/EP3690702A4/en active Pending
-
2020
- 2020-04-13 US US16/846,890 patent/US11478169B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104123007A (zh) * | 2014-07-29 | 2014-10-29 | 电子科技大学 | 一种多维加权的3d动态手势识别方法 |
CN104200197A (zh) * | 2014-08-18 | 2014-12-10 | 北京邮电大学 | 三维人体行为识别方法及装置 |
CN105787439A (zh) * | 2016-02-04 | 2016-07-20 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN106682594A (zh) * | 2016-12-13 | 2017-05-17 | 中国科学院软件研究所 | 基于动态网格编码的姿势和动作识别方法 |
CN107169415A (zh) * | 2017-04-13 | 2017-09-15 | 西安电子科技大学 | 基于卷积神经网络特征编码的人体动作识别方法 |
Non-Patent Citations (1)
Title |
---|
基于RGB-D摄像机与IMU数据融合的动作捕捉系统;张瑒 等;《系统仿真学报》;20151031;第27卷(第10期);第2582-2588页 * |
Also Published As
Publication number | Publication date |
---|---|
US20200237266A1 (en) | 2020-07-30 |
EP3690702A1 (en) | 2020-08-05 |
CN109670380A (zh) | 2019-04-23 |
EP3690702A4 (en) | 2020-11-11 |
US11478169B2 (en) | 2022-10-25 |
WO2019072243A1 (zh) | 2019-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670380B (zh) | 动作识别、姿势估计的方法及装置 | |
US10867184B2 (en) | System and method for training a convolutional neural network and classifying an action performed by a subject in a video using the trained convolutional neural network | |
CN109492612B (zh) | 基于骨骼点的跌倒检测方法及其跌倒检测装置 | |
CN109685037B (zh) | 一种实时动作识别方法、装置及电子设备 | |
WO2018051944A1 (ja) | 人流推定装置、人流推定方法および記録媒体 | |
CN110738101A (zh) | 行为识别方法、装置及计算机可读存储介质 | |
WO2017129020A1 (zh) | 视频中人体行为识别的方法、装置和计算机存储介质 | |
JP2017191501A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111402294A (zh) | 目标跟踪方法、装置、计算机可读存储介质和计算机设备 | |
CN109190601A (zh) | 一种监控场景下目标对象识别方法及装置 | |
WO2021036634A1 (zh) | 故障检测方法及相关产品 | |
CN104966305A (zh) | 基于运动矢量划分的前景检测方法 | |
JP2020135747A (ja) | 行動分析装置および行動分析方法 | |
JP2021089717A (ja) | 対象の再特定の方法 | |
CN112487844A (zh) | 手势识别方法、电子设备、计算机可读存储介质和芯片 | |
CN113297963A (zh) | 多人姿态的估计方法、装置、电子设备以及可读存储介质 | |
CN113963202A (zh) | 一种骨骼点动作识别方法、装置、电子设备及存储介质 | |
CN112819889B (zh) | 位置信息的确定方法及装置、存储介质、电子装置 | |
CN114120436A (zh) | 动作识别模型的训练方法、动作识别方法及相关装置 | |
CN115331152B (zh) | 一种消防识别方法和系统 | |
CN116824695A (zh) | 一种基于特征去噪的行人再识别非局部防御方法 | |
JP4750758B2 (ja) | 注目領域抽出方法、注目領域抽出装置、コンピュータプログラム、及び、記録媒体 | |
CN113947757A (zh) | 一种基于OpenPose的排球运动触网检测方法 | |
WO2020022362A1 (ja) | 動き検出装置、特性検出装置、流体検出装置、動き検出システム、動き検出方法、プログラム、および、記録媒体 | |
CN105611285B (zh) | 基于相位选择性机制的通用无参考图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |