CN116311489A - 一种移动端实时动作检测与动作分割方法 - Google Patents
一种移动端实时动作检测与动作分割方法 Download PDFInfo
- Publication number
- CN116311489A CN116311489A CN202211088084.XA CN202211088084A CN116311489A CN 116311489 A CN116311489 A CN 116311489A CN 202211088084 A CN202211088084 A CN 202211088084A CN 116311489 A CN116311489 A CN 116311489A
- Authority
- CN
- China
- Prior art keywords
- motion
- frame
- action
- path
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机视觉技术领域,提供一种移动端实时动作检测与动作分割方法,包括:预先收集和定义标准动作的视频,且提取出每一帧的人体骨骼信息。首先通过动作识别和归类得到初步的开始帧和结束帧,且提取出这个区间(开始帧和结束帧之间)各帧的人体骨骼信息,然后和标准动作对比两者的骨骼信息,用动态时间规整法DTW进行对齐,且找到最优路径,最后根据最优路径确定动作的开始帧和结束帧。通过本发明的方法优化和调整动作视频后,在手机端从输入图像到最后输出分割好的动作,单人情况下gpu可超过40fps,由于动作视频的开始帧和结束帧更加准确,因此更加贴近于人体的真实动作。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种移动端实时动作检测与动作分割方法。
背景技术
在一段未剪辑视频中定位动作并分类称为动作检测(Action Detection)。其任务为找到动作的开始帧和结束帧并进行分类。动作分割(Action Segmentation)则更进一步,对已经分类的动作再进行分割,分成更小片段,并对每一小片段视频指定动作标签。动作检测和动作分割没有明确界限,时间段偏长可称为动作检测,偏短则为动作分割。
动作检测一般是对已经录制好的视频进行检测,如通过深度学习方法回归得到开始帧和结束帧的位置,同时对视频片段进行分类。现有技术的动作检测与动作分割的方法是深度学习只负责动作分类(识别),而开始帧和结束帧是通过统计和逻辑判定求出。这种方式的优点是深度学习模型较简单,轻量化。能在移动端有限资源的情况下,实现较好的实时动作检测和分割,但是这种方法得到的开始帧和结束帧不够精确,不能够更贴近真实的人体动作。
发明内容
本发明主要解决现有技术中开始帧和结束帧通过统计和逻辑判定求出,开始帧和结束帧不够精确的技术问题,提出一种移动端实时动作检测与动作分割方法,以达到提高开始帧和结束帧的精确性,从而更加贴近于真实的人体动作的目的。
本发明提供了一种移动端实时动作检测与动作分割方法,包括:
定义人体标准动作视频,且提取出所述人体标准动作视频每一帧的标准动作人体骨骼信息;
对当前人体动作视频进行初步的动作识别及动作分割,提取所述当前人体动作视频的开始帧和结束帧区间内各帧的当前人体骨骼信息;
根据所述动作识别将所述当前人体动作视频的动作序列帧与所述人体标准动作视频的标准动作序列帧用动态时间规整法进行对齐,对比所述当前人体和所述标准动作人体的骨骼信息;
根据所述对齐的结果丢弃掉不准确的动作帧得到最优路径,根据所述最优路径选取动作的开始帧和结束帧;
根据选取的开始帧和结束帧进行动作分割。
进一步地,所述对当前人体动作视频进行初步的动作识别,包括:对所述当前人体动作视频每24帧进行一次动作识别,当动作识别结果大于设定阈值,则根据动作识别类型推入相应的队列。
进一步地,所述对根据动作识别类型推入相应的队列,包括:至少连续检测到k帧才能推入所述相应的队列。
进一步地,所述对当前人体动作视频进行初步的动作识别,还包括:n个动作对应n个队列;当n个动作中的第i个动作检测到第m帧,当m大于动作的最小帧数时,就确定第m帧是完整的动作序列帧;n、i、m均是大于等于1的变量。
进一步地,采用st-gcn动作识别网络进行动作识别。
进一步地,所述根据所述动作识别将所述当前人体动作视频的动作序列帧与所述人体标准动作视频的标准动作序列帧用动态时间规整法进行对齐,包括:用动作识别到的包括n1个当前动作序列帧的X和包括n2个标准动作序列帧的标准动作Y进行动态时间规整DTW,求出路径path。
进一步地,所述用动作识别到的包括n1个当前动作序列帧的X和包括n2个标准动作序列帧的标准动作Y进行动态时间规整DTW,求得路径path,包括:xi,yj是v-1维余弦值组成的向量i∈(1,2,...,n1),j∈(1,2,...,n2),所述余弦值由向量余弦公式求得,涉及公式如(1)和(2)::
dis,R,D=DTW(X,Y) (1)
path=find_path(R,D) (2)
式中,v为人体关节点个数;dis为最短路径值,R为距离累加矩阵,D距离矩阵;X=(x1,x2,...,xn1),Y=(y1,y2,...,yn2)。
进一步地,根据所述对齐的结果丢弃掉不准确的动作帧得到最优路径,根据所述最优路径选取动作的开始帧和结束帧,包括:
逆推R得到一个最佳路径(p1,q1);
求出p1的平均距离,如果距离矩阵D中相应位置值大于所述平均距离,则丢弃这个路径节点,过滤后得到路径(p2,q2),由式(3)和(4)表示为:
n=len(p1) (3)
mean_dis=dis/len(p1) (4)
式中,n为p1的路径节点个数,dis上动态时间规整DTW求出的最短路径;
如果p2有i个节点对应q2中一个节点qj,i>1,则从i个节点中找出和节点qj距离最小的节点作为候选节点,其他节点丢弃;q2中有多个节点对应P2中一个节点,也从i个节点中找出和节点qj距离最小的节点作为候选节点,其他节点丢弃,最后得到路径(p3,q3);
以(p3,q3)作为最后的输出路径,即path=(p3,q3);
以p3的第一个路径节点和最后一个路径节点对应的动作帧序列作为动作的开始帧和结束帧。
本发明提供的一种移动端实时动作检测与动作分割方法,通过预先收集和定义了一个标准动作的视频,且提取出每一帧的人体骨骼信息。然后通过初步得到的开始帧和结束帧提取出这个区间各帧的人体骨骼信息,对比两个人体骨骼信息,用动态时间规整(DTW)进行对齐,再进行一次精细分割,实现了提高开始帧和结束帧的准确性,更能准确反应人体真实动作的效果。
附图说明
图1为本发明移动端实时动作检测与动作分割方法流程图;
图2为实施例中GCN的子图结构,从左至右分别表达向心运动、离心运动和静止的动作特征;
图3为本发明中动作序列帧的示意图;
图4为本发明中余弦求值方式图;
图5为实施例中的人体骨骼图。
具体实施方式
为使本发明解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部内容。
如图1所示,本发明实施例提供的移动端实时动作检测与动作分割方法包括:
101、定义人体标准动作视频,且提取出所述人体标准动作视频每一帧的标准动作人体骨骼信息;
具体而言,为了解决开始帧和结束帧不精确的问题,预先收集和定义了一个标准动作的视频,且提取出每一帧的人体骨骼信息,人体骨骼信息如图5所示。
图5中,关节点id和名字对应关系如下:
(0,"鼻子"),(1,"左眼"),(2,"右眼"),(3,"左耳"),(4,"右耳"),
(5,"左肩"),(6,"右肩"),(7,"左肘"),(8,"右肘"),(9,"左腕"),
(10,"右腕"),(11,"左髋"),(12,"右髋"),(13,"左膝"),(14,"右膝"),
(15,"左踝"),(16,"右踝"),(17,"头顶"),(18,"脖子"),(19,"臀部"),
(20,"左大脚趾"),(21,"右大脚趾"),(22,"左小脚趾"),(23,"右小脚趾"),(24,"左脚跟"),
(25,"右脚跟"),(26,"左大拇指"),(27,""右大拇指"),(28,"左中指"),(29,"右中指")
102、对当前人体动作视频进行初步的动作识别及动作分割,提取当前人体动作视频的开始帧和结束帧区间内各帧的当前人体骨骼信息;
具体而言,采用st-gcn动作识别网络进行动作识别。
st-gcn是TCN与GCN的结合。TCN是对时间维度的数据进行卷积操作,GCN是则对空间维度的数据进行卷积操作。
如图2所示,将图划分为三个子图,分别表达向心运动、离心运动和静止的动作特征。每个子图有一个卷积核,总共三个卷积核(3,V,V),V便是关节点个数。
从左至右,第1张图连接了空间位置上比本节点更远离整个骨架重心的邻居节点,包含了离心运动的特征。
第2张图连接了更为靠近重心的邻居节点,包含了向心运动的特征。
第3张图连接了根节点本身,包含了静止的特征。
带有K个卷积核的图卷积表达式为:
表达式可以用爱因斯坦求和约定表示为(k表示卷积核数,如上k=3;c表示通道数;t表示帧数;v和w表示特征点数或者称为关节点数):
kctv,kvw->nctw
st-gcn的feature map最后三个维度的形状为(C,T,V),与一般图像feature map的形状(C,H,W)相对应。图像的通道数C对应特征图通道数C;图像的高H对应帧数T;图像的宽W对应特征点数V(关节点数)。每次使用(size,1)的卷积核,就可以对T方向进行卷积操作,如size=3。
本实施例采用的动作识别方法是对当前人体动作视频每24(大于10)帧进行一次动作识别,当动作识别结果大于设定阈值,则根据动作识别类型推入相应的队列。可以加入入队的条件限制,如至少连续检测到k帧才能推入队列。假设有n个动作,则需要n个队列,如图3所示,假设第i个动作检测到m帧,当m大于一个阈值(一个动作的最小帧数)时,就确定它时一个完整的动作序列帧。n、i、m均是大于等于1的变量。
103、根据动作识别将当前人体动作视频的动作序列帧与人体标准动作视频的标准动作序列帧用动态时间规整法进行对齐,对比当前人体和所述标准动作人体的骨骼信息;
具体而言,用动作识别到的包括n1个当前动作序列帧的X和包括n2个标准动作序列帧的标准动作Y进行动态时间规整DTW,求出路径path。
如图4所示,xi,yj是v-1维余弦值组成的向量i∈(1,2,...,n1),j∈(1,2,...,n2),所述余弦值由向量余弦公式求得,如图4所示。涉及相关公式如(1)和(2):
dis,R,D=DTW(X,Y) (1)
path=find_path(R,D) (2)
式中,v为人体关节点个数;dis为最短路径值,R为距离累加矩阵,D距离矩阵;X=(x1,x2,...,xn1),Y=(y1,y2,...,yn2)。
104、根据对齐的结果丢弃掉不准确的动作帧得到最优路径,根据最优路径选取动作的开始帧和结束帧;
105、根据选取的开始帧和结束帧进行动作分割。
具体而言,find_path(R,D)的规则如下:
逆推R得到一个最佳路径(p1,q1);
求出p1的平均距离,如果距离矩阵D中相应位置值大于所述平均距离,则丢弃这个路径节点,过滤后得到路径(p2,q2),由式(3)和(4)表示为:
n=len(p1) (3)
mean_dis=dis/len(p1) (4)
式中,n为p1的路径节点个数,dis上动态时间规整DTW求出的最短路径;
如果p2有i个节点对应q2中一个节点qj,i>1,则从i个节点中找出和节点qj距离最小的节点作为候选节点,其他节点丢弃;q2中有多个节点对应P2中一个节点,也从i个节点中找出和节点qj距离最小的节点作为候选节点,其他节点丢弃,最后得到路径(p3,q3);
以(p3,q3)作为最后的输出路径,即path=(p3,q3);
以p3的第一个路径节点和最后一个路径节点对应的动作帧序列作为动作的开始帧和结束帧,分割动作。
本实施例在技术实现方面:
动作识别,矫正模型推理使用tnn,动作序列帧通过队列管理,求解最优路径通过C++实现,整个架构使用C++搭建。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (8)
1.一种移动端实时动作检测与动作分割方法,其特征在于,所述方法包括:
定义人体标准动作视频,且提取出所述人体标准动作视频每一帧的标准动作人体骨骼信息;
对当前人体动作视频进行初步的动作识别及动作分割,提取所述当前人体动作视频的开始帧和结束帧区间内各帧的当前人体骨骼信息;
根据所述动作识别将所述当前人体动作视频的动作序列帧与所述人体标准动作视频的标准动作序列帧用动态时间规整法进行对齐,对比所述当前人体和所述标准动作人体的骨骼信息;
根据所述对齐的结果丢弃掉不准确的动作帧得到最优路径,根据所述最优路径选取动作的开始帧和结束帧;
根据选取的开始帧和结束帧进行动作分割。
2.根据权利要求1所述的移动端实时动作检测与动作分割方法,其特征在于,所述对当前人体动作视频进行初步的动作识别,包括:
对所述当前人体动作视频每24帧进行一次动作识别,当动作识别结果大于设定阈值,则根据动作识别类型推入相应的队列。
3.根据权利要求2所述的移动端实时动作检测与动作分割方法,其特征在于,所述对根据动作识别类型推入相应的队列,包括:
至少连续检测到k帧才能推入所述相应的队列。
4.根据权利要求2所述的移动端实时动作检测与动作分割方法,其特征在于,所述对当前人体动作视频进行初步的动作识别,还包括:
n个动作对应n个队列;当n个动作中的第i个动作检测到第m帧,当m大于动作的最小帧数时,就确定第m帧是完整的动作序列帧;n、i、m均是大于等于1的变量。
5.根据权利要求2所述的移动端实时动作检测与动作分割方法,其特征在于,采用st-gcn动作识别网络进行动作识别。
6.根据权利要求2所述的移动端实时动作检测与动作分割方法,其特征在于,所述根据所述动作识别将所述当前人体动作视频的动作序列帧与所述人体标准动作视频的标准动作序列帧用动态时间规整法进行对齐,包括:
用动作识别到的包括n1个当前动作序列帧的X和包括n2个标准动作序列帧的标准动作Y进行动态时间规整DTW,求出路径path。
7.根据权利要求6所述的移动端实时动作检测与动作分割方法,其特征在于,所述用动作识别到的包括n1个当前动作序列帧的X和包括n2个标准动作序列帧的标准动作Y进行动态时间规整DTW,求得路径path,包括:
xi,yj是v-1维余弦值组成的向量i∈(1,2,...,n1),j∈(1,2,...,n2),所述余弦值由向量余弦公式求得,涉及公式如(1)和(2):
dis,R,D=DTW(X,Y) (1)
path=find_path(R,D) (2)
式中,v为人体关节点个数;dis为最短路径值,R为距离累加矩阵,D距离矩阵;X=(x1,x2,...,xn1),Y=(y1,y2,...,yn2)。
8.根据权利要求7所述的移动端实时动作检测与动作分割方法,其特征在于,所述根据所述对齐的结果丢弃掉不准确的动作帧得到最优路径,根据所述最优路径选取动作的开始帧和结束帧,包括:
逆推R得到一个最佳路径(p1,q1);
求出p1的平均距离,如果距离矩阵D中相应位置值大于所述平均距离,则丢弃这个路径节点,过滤后得到路径(p2,q2),由式(3)和(4)表示为:
n=len(p1) (3)
mean_dis=dis/len(p1) (4)
式中,n为p1的路径节点个数,dis上动态时间规整DTW求出的最短路径;
如果p2有i个节点对应q2中一个节点qj,i>1,则从i个节点中找出和节点qj距离最小的节点作为候选节点,其他节点丢弃;q2中有多个节点对应P2中一个节点,也从i个节点中找出和节点qj距离最小的节点作为候选节点,其他节点丢弃,最后得到路径(p3,q3);
以(p3,q3)作为最后的输出路径,即path=(p3,q3);
以p3的第一个路径节点和最后一个路径节点对应的动作帧序列作为动作的开始帧和结束帧。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211088084.XA CN116311489A (zh) | 2022-09-07 | 2022-09-07 | 一种移动端实时动作检测与动作分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211088084.XA CN116311489A (zh) | 2022-09-07 | 2022-09-07 | 一种移动端实时动作检测与动作分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116311489A true CN116311489A (zh) | 2023-06-23 |
Family
ID=86789262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211088084.XA Pending CN116311489A (zh) | 2022-09-07 | 2022-09-07 | 一种移动端实时动作检测与动作分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116311489A (zh) |
-
2022
- 2022-09-07 CN CN202211088084.XA patent/CN116311489A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109977262B (zh) | 从视频中获取候选片段的方法、装置及处理设备 | |
US10002290B2 (en) | Learning device and learning method for object detection | |
CN110175595B (zh) | 人体属性识别方法、识别模型训练方法及装置 | |
KR100442834B1 (ko) | 얼굴/유사얼굴 영상으로 학습된 패턴 분류기를 이용한얼굴 검출 방법 및 시스템 | |
Johnson et al. | Sparse coding for alpha matting | |
CN110263666B (zh) | 一种基于非对称多流的动作检测方法 | |
CN110263215B (zh) | 一种视频情感定位方法及系统 | |
CN110232331B (zh) | 一种在线人脸聚类的方法及系统 | |
JP2019159958A (ja) | 顔画像識別システム、識別器生成装置、識別装置、画像識別システム、及び識別システム | |
CN112613349B (zh) | 基于深度混合卷积神经网络的时序动作检测方法及装置 | |
CN110751191A (zh) | 一种图像的分类方法及系统 | |
CN115497124A (zh) | 身份识别方法和装置及存储介质 | |
CN111401343A (zh) | 识别图像中人的属性的方法、识别模型的训练方法和装置 | |
JP2012048624A (ja) | 学習装置、方法及びプログラム | |
CN114170558A (zh) | 用于视频处理的方法、系统、设备、介质和产品 | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
JP6101470B2 (ja) | 顔表情解析装置および顔表情解析プログラム | |
JP2014119879A (ja) | 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム | |
CN116311489A (zh) | 一种移动端实时动作检测与动作分割方法 | |
JP5958557B2 (ja) | オブジェクト認識方法及びオブジェクト認識装置 | |
CN115457620A (zh) | 用户表情识别方法、装置、计算机设备及存储介质 | |
CN115063858A (zh) | 视频人脸表情识别模型训练方法、装置、设备及存储介质 | |
CN113536845B (zh) | 人脸属性识别方法、装置、存储介质和智能设备 | |
KR20180082680A (ko) | 분류기를 학습시키는 방법 및 이를 이용한 예측 분류 장치 | |
Khryashchev et al. | Gender and age recognition for video analytics solution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |