CN116912951B - 人体姿态的评估方法及装置 - Google Patents

人体姿态的评估方法及装置 Download PDF

Info

Publication number
CN116912951B
CN116912951B CN202311178295.7A CN202311178295A CN116912951B CN 116912951 B CN116912951 B CN 116912951B CN 202311178295 A CN202311178295 A CN 202311178295A CN 116912951 B CN116912951 B CN 116912951B
Authority
CN
China
Prior art keywords
data
image
fused
images
ith
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311178295.7A
Other languages
English (en)
Other versions
CN116912951A (zh
Inventor
李强
徐向民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202311178295.7A priority Critical patent/CN116912951B/zh
Publication of CN116912951A publication Critical patent/CN116912951A/zh
Application granted granted Critical
Publication of CN116912951B publication Critical patent/CN116912951B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种人体姿态的评估方法及装置,用以降低姿态分析的处理开销,提高处理效率。该方法包括:电子设备获取针对于目标对象连续拍摄的M张图像,其中,M为大于1的整数,M张图像均包含目标对象;电子设备将M张图像中的第i张图像的数据与第i+s张图像的数据融合,得到融合后的图像的数据,其中,i为取1至M‑s的整数,s为大于1且小于M的整数,融合后的图像的数据的数据量与第i张图像的数据的数据量相同,或融合后的图像的数据的数据量与第i+s张图像的数据的数据量相同;电子设备根据融合后的图像的数据,确定目标对象的姿态变化。

Description

人体姿态的评估方法及装置
技术领域
本申请涉及图像处理领域,尤其涉及一种人体姿态的评估方法及装置。
背景技术
人体姿态识别是一种比较常规的技术,目前已在诸多领域得到应用。例如,在应用登录过程中,通常会做活体检测,即检测用户是否按提示执行了相应的姿态操作,如眨眼,张嘴、点头、摇头等。具体来说,在此过程中,设备会连续采集用户的图像,即多张图像,并通过神经网络对多张图像逐一进行分析,以确定用户的姿态变化,从而检测用户是否按提示执行了相应的姿态操作。
然而,逐一分析的处理开销比较大,处理效率不够高。
发明内容
本申请实施例提供一种人体姿态的评估方法及装置,用以降低姿态分析的处理开销,提高处理效率。
为达到上述目的,本申请采用如下技术方案:
第一方面,提供一种人体姿态的评估方法,应用于电子设备,该方法包括:电子设备获取针对于目标对象连续拍摄的M张图像,其中,M为大于1的整数,M张图像均包含目标对象;电子设备将M张图像中的第i张图像的数据与第i+s张图像的数据融合,得到融合后的图像的数据,其中,i为取1至M-s的整数,s为大于1且小于M的整数,融合后的图像的数据的数据量与第i张图像的数据的数据量相同,或融合后的图像的数据的数据量与第i+s张图像的数据的数据量相同;电子设备根据融合后的图像的数据,确定目标对象的姿态变化。
基于第一方面所述方法可知,通过将第i张图像的数据与第i+s张图像的数据在不改变数据大小的情况下融合,实现通过分析一张图像的数据量,便可以确定目标对象的姿态变化,相较于现有技术对多张图像逐一进行分析方式,其大幅降低了姿态分析的处理开销,大幅提高了处理效率。
可以理解,第i张图像与第i+s张图像不应是连续拍摄的M张图像中相邻的两张图像,需要有一定的时间间隔,以保证第i张图像与第i+s张图像中目标对象的姿态是不同的。此外,上述融合的过程可以多次发生,如M张图像为10张,可以分别进行5次融合,如将第1张图像与第6张图像融合,将第2张图像与第7张图像融合,将第3张图像与第8张图像融合,将第4张图像与第9张图像融合,将第5张图像与第10张图像融合。如此,电子设备可以得到5个目标对象的姿态变化的结果,并将相同的结果中数目最多的结果确定为目标对象的姿态变化的最终结果。
一种可能的设计方案中,电子设备将M张图像中的第i张图像的数据与第i+s张图像的数据融合,得到融合后的图像的数据,包括:电子设备将第i+s张图像的数据融合到第i张图像的数据中,得到融合后的图像的数据。
可选地,第i+s张图像和第i张图像均可以是包含N个像素点的图像,第i张图像的数据中用于表征第i张图像中的第j个像素点的数据可以为第一数据,第i+s张图像的数据中用于表征第i+s张图像中的第j个像素点的数据可以为第二数据,j为取1至N的任一整数。
其中,将第i+s张图像的数据融合到第i张图像的数据中可以是指:若第一数据与第二数据匹配,则可以将融合后的图像的数据中用于表征第j个像素点的数据确定为第一数据或第二数据;或者,若第一数据与第二数据不匹配,则可以将融合后的图像的数据中用于表征第j个像素点的数据确定为第三数据,第三数据表征的第j个像素点的像素值与第i张图像中的第j个像素点的像素值和第i+s张图像中的第j个像素点的像素值均不同。
也就是说,对于尺寸大小相同的两张图像而言,所谓的融合是将两张图像中相同位置且像素值也不同(或者说不匹配)的像素点通过重新赋值的方式标注出来,也即,将两张图像中不同的部分确定出来,这些不同的部分能够反映目标对象的姿态变化。
进一步的,电子设备根据融合后的图像的数据,确定目标对象的姿态变化,包括:电子设备根据融合后的图像的数据,生成一张融合后的图像;电子设备通过卷积神经网络处理融合后的图像,确定目标对象的姿态变化。
可选地,第i+s张图像和第i张图像均可以是包含N个像素点的图像,第i张图像的数据中用于表征第i张图像中的第j个像素点的数据可以为第一数据,第i+s张图像的数据中用于表征第i+s张图像中的第j个像素点的数据可以为第二数据,j为取1至N的任一整数。
其中,将第i+s张图像的数据融合到第i张图像的数据中可以是指:若第一数据与第二数据匹配,则将第一数据与第二数据丢弃;或者,若第一数据和第二数据不匹配,则将第一数据和第二数据确定为融合后的图像的数据。
也就是说,对于尺寸大小相同的两张图像而言,所谓的融合是将两张图像中相同位置且像素值也不同(或者说不匹配)的像素点的数据保存,而将两张图像中相同位置且像素值也相同(或者说匹配)的像素点的数据丢弃,如此融合后的图像的数据仅包含相同位置且像素值也不同(或者说不匹配)的像素点的数据,用以表征目标对象的姿态变化。
可选地,电子设备根据融合后的图像的数据,确定目标对象的姿态变化,包括:电子设备通过深度神经网络处理融合后的图像的数据,确定目标对象的姿态变化。
进一步的,电子设备通过深度神经网络处理融合后的图像的数据,确定目标对象的姿态变化,包括:电子设备将融合后的图像的数据中匹配的两个数据组作为一对数据组,共K对数据组,其中,K为大于1的整数;电子设备根据第i张图像和第i+s张图像中由K对数据组对应表征的像素点的位置,确定位置矩阵;电子设备通过深度神经网络处理位置矩阵,确定目标对象的姿态变化。
例如,对于K对数据组中的第k对数据组,k为取1至K的任一整数,第k对数据组中的第一数据组是用于表征第i张图像中相邻的第一像素点集合的数据,第k对数据组中的第二数据组是用于表征第i+s张图像中相邻的第二像素点集合的数据;位置矩阵中的第k行包含两个矩阵元素,两个矩阵元素中的第一矩阵元素用于表征第一像素点集合的位置,两个矩阵元素中的第二矩阵元素用于表征第二像素点集合的位置。
可以理解,上述的第一像素点集合与第二像素点集合可以表征目标对象的同一部位在两张图像中的不同位置,也即,位置矩阵中的每一行可以表征目标对象的同一部位在两张图像中的不同位置。换言之,目标对象的姿态变化可以通过矩阵的方式表征,如此,深度神经网络分析位置矩阵即是分析目标对象的姿态变化。
此外,第一像素点集合的位置可以是对第一像素点集合中所有像素点各自的位置加权求和得到,同理,第二像素点集合的位置也可以是对第二像素点集合中所有像素点各自的位置加权求和得到。这种情况下,第一矩阵元素是一个值,即第一像素点集合的位置;第二矩阵元素也是一个值,即第二像素点集合的位置。或者,第一像素点集合的位置可以是第一像素点集合中所有像素点各自的位置,同理,第二像素点集合的位置也可以是第二像素点集合中所有像素点各自的位置。这种情况下,第一矩阵元素是一个多维向量,每个多维向量为第一像素点集合中对应一个像素点的位置。第二矩阵元素也是一个多维向量,每个多维向量为第二像素点集合中对应一个像素点的位置。
可选地,第一数据与第二数据匹配可以是指:第一数据的比特流与第二数据的比特流的相差小于预设阈值,第一数据与第二数据不匹配可以是指:第一数据的比特流与第二数据的比特流的相差大于或等于预设阈值。或者,第一数据与第二数据匹配可以是指:第一数据的比特流与第二数据的比特流相同,第一数据与第二数据不匹配可以是指:第一数据的比特流与第二数据的比特流不同。
第二方面,提供一种人体姿态的评估装置,应用于电子设备,装置包括:收发模块,用于电子设备获取针对于目标对象连续拍摄的M张图像,其中,M为大于1的整数,M张图像均包含目标对象;处理模块,用于电子设备将M张图像中的第i张图像的数据与第i+s张图像的数据融合,得到融合后的图像的数据,其中,i为取1至M-s的整数,s为大于1且小于M的整数,融合后的图像的数据的数据量与第i张图像的数据的数据量相同,或融合后的图像的数据的数据量与第i+s张图像的数据的数据量相同;处理模块,还用于电子设备根据融合后的图像的数据,确定目标对象的姿态变化。
一种可能的设计方案中,处理模块,还用于电子设备将第i+s张图像的数据融合到第i张图像的数据中,得到融合后的图像的数据。
可选地,第i+s张图像和第i张图像均可以是包含N个像素点的图像,第i张图像的数据中用于表征第i张图像中的第j个像素点的数据可以为第一数据,第i+s张图像的数据中用于表征第i+s张图像中的第j个像素点的数据可以为第二数据,j为取1至N的任一整数。
其中,将第i+s张图像的数据融合到第i张图像的数据中可以是指:若第一数据与第二数据匹配,则可以将融合后的图像的数据中用于表征第j个像素点的数据确定为第一数据或第二数据;或者,若第一数据与第二数据不匹配,则可以将融合后的图像的数据中用于表征第j个像素点的数据确定为第三数据,第三数据表征的第j个像素点的像素值与第i张图像中的第j个像素点的像素值和第i+s张图像中的第j个像素点的像素值均不同。
进一步的,处理模块,还用于电子设备根据融合后的图像的数据,生成一张融合后的图像;处理模块,还用于电子设备通过卷积神经网络处理融合后的图像,确定目标对象的姿态变化。
可选地,第i+s张图像和第i张图像均可以是包含N个像素点的图像,第i张图像的数据中用于表征第i张图像中的第j个像素点的数据可以为第一数据,第i+s张图像的数据中用于表征第i+s张图像中的第j个像素点的数据可以为第二数据,j为取1至N的任一整数。
其中,将第i+s张图像的数据融合到第i张图像的数据中可以是指:若第一数据与第二数据匹配,则将第一数据与第二数据丢弃;或者,若第一数据和第二数据不匹配,则将第一数据和第二数据确定为融合后的图像的数据。
可选地,处理模块,还用于电子设备通过深度神经网络处理融合后的图像的数据,确定目标对象的姿态变化。
进一步的,处理模块,还用于电子设备将融合后的图像的数据中匹配的两个数据组作为一对数据组,共K对数据组,其中,K为大于1的整数;处理模块,还用于电子设备根据第i张图像和第i+s张图像中由K对数据组对应表征的像素点的位置,确定位置矩阵;处理模块,还用于电子设备通过深度神经网络处理位置矩阵,确定目标对象的姿态变化。
例如,对于K对数据组中的第k对数据组,k为取1至K的任一整数,第k对数据组中的第一数据组是用于表征第i张图像中相邻的第一像素点集合的数据,第k对数据组中的第二数据组是用于表征第i+s张图像中相邻的第二像素点集合的数据;位置矩阵中的第k行包含两个矩阵元素,两个矩阵元素中的第一矩阵元素用于表征第一像素点集合的位置,两个矩阵元素中的第二矩阵元素用于表征第二像素点集合的位置。
可选地,第一数据与第二数据匹配可以是指:第一数据的比特流与第二数据的比特流的相差小于预设阈值,第一数据与第二数据不匹配可以是指:第一数据的比特流与第二数据的比特流的相差大于或等于预设阈值。或者,第一数据与第二数据匹配可以是指:第一数据的比特流与第二数据的比特流相同,第一数据与第二数据不匹配可以是指:第一数据的比特流与第二数据的比特流不同。
可选地,收发模块可以包括发送模块和接收模块。其中,发送模块用于实现第二方面所述的人体姿态的评估装置的发送功能,接收模块用于实现第二方面所述的人体姿态的评估装置的接收功能。
可选地,第二方面所述的人体姿态的评估装置还可以包括存储模块,该存储模块存储有程序或指令。当该处理模块执行该程序或指令时,使得该人体姿态的评估装置可以执行第一方面所述的方法。
可以理解,第二方面所述的人体姿态的评估装置可以是终端,也可以是可设置于终端中的芯片(系统)或其他部件或组件,还可以是包含终端的装置,本申请对此不做限定。
此外,第二方面所述的人体姿态的评估装置的技术效果可以参考第一方面所述的方法的技术效果,此处不再赘述。
第三方面,提供了一种人体姿态的评估装置,包括:处理器和存储器;该存储器用于存储计算机程序,当该处理器执行该计算机程序时,以使该装置执行第一方面所述的方法。
在一种可能的设计方案中,第三方面所述的人体姿态的评估装置还可以包括收发器。该收发器可以为收发电路或接口电路。该收发器可以用于第三方面所述的装置与其他装置通信。
在本申请实施例中,第三方面所述的装置可以为第一方面所述的终端,或者可设置于该终端中的芯片(系统)或其他部件或组件,或者包含该终端的装置。
此外,第三方面所述的人体姿态的评估装置的技术效果可以参考第一方面所述的方法的技术效果,此处不再赘述。
第四方面,提供一种计算机可读存储介质,包括:计算机程序或指令;当该计算机程序或指令在计算机上运行时,使得该计算机执行第一方面所述的方法。
第五方面,提供一种计算机程序产品,包括计算机程序或指令,当该计算机程序或指令在计算机上运行时,使得该计算机执行第一方面所述的方法。
附图说明
图1为本申请实施例提供的人体姿态的评估方法的流程示意图;
图2为本申请实施例提供的人体姿态的评估装置的结构示意图一;
图3为本申请实施例提供的人体姿态的评估装置的结构示意图二。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
在本申请实施例中,“指示”可以包括直接指示和间接指示,也可以包括显式指示和隐式指示。将某一信息(如下文的第一指示信息、第二指示信息、或者第三指示信息等)所指示的信息称为待指示信息,则具体实现过程中,对待指示信息进行指示的方式有很多种,例如但不限于,可以直接指示待指示信息,如待指示信息本身或者该待指示信息的索引等。也可以通过指示其他信息来间接指示待指示信息,其中该其他信息与待指示信息之间存在关联关系。还可以仅仅指示待指示信息的一部分,而待指示信息的其他部分则是已知的或者提前约定的。例如,还可以借助预先约定(例如协议规定)的各个信息的排列顺序来实现对特定信息的指示,从而在一定程度上降低指示开销。同时,还可以识别各个信息的通用部分并统一指示,以降低单独指示同样的信息而带来的指示开销。
此外,具体的指示方式还可以是现有各种指示方式,例如但不限于,上述指示方式及其各种组合等。各种指示方式的具体细节可以参考现有技术,本文不再赘述。由上文所述可知,举例来说,当需要指示相同类型的多个信息时,可能会出现不同信息的指示方式不相同的情形。具体实现过程中,可以根据具体的需要选择所需的指示方式,本申请实施例对选择的指示方式不做限定,如此一来,本申请实施例涉及的指示方式应理解为涵盖可以使得待指示方获知待指示信息的各种方法。
应理解,待指示信息可以作为一个整体一起发送,也可以分成多个子信息分开发送,而且这些子信息的发送周期和/或发送时机可以相同,也可以不同。具体发送方法本申请实施例不进行限定。其中,这些子信息的发送周期和/或发送时机可以是预先定义的,例如根据协议预先定义的,也可以是发送端设备通过向接收端设备发送配置信息来配置的。
“预先定义”或“预先配置”可以通过在设备中预先保存相应的代码、表格或其他可用于指示相关信息的方式来实现,本申请实施例对于其具体的实现方式不做限定。其中,“保存”可以是指,保存在一个或者多个存储器中。所述一个或者多个存储器可以是单独的设置,也可以是集成在编码器或者译码器,处理器、或人体姿态的评估装置中。所述一个或者多个存储器也可以是一部分单独设置,一部分集成在译码器、处理器、或人体姿态的评估装置中。存储器的类型可以是任意形式的存储介质,本申请实施例并不对此限定。
本申请实施例中涉及的“协议”可以是指通信领域中协议族、类似协议族帧结构的标准协议、或者应用于未来的通信系统中的相关协议,本申请实施例对此不作具体限定。
本申请实施例中,“当……时”、“在……的情况下”、“若”以及“如果”等描述均指在某种客观情况下设备会做出相应的处理,并非是限定时间,且也不要求设备在实现时一定要有判断的动作,也不意味着存在其它限定。
在本申请实施例的描述中,除非另有说明,“/”表示前后关联的对象是一种“或”的关系,例如,A/B可以表示A或B;本申请实施例中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A、B可以是单数或者复数。并且,在本申请实施例的描述中,除非另有说明,“多个”是指两个或多于两个。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a、b或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。另外,为了便于清楚描述本申请实施例的技术方案,在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。同时,在本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念,便于理解。
本申请实施例描述的架构以及业务场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着网络架构的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本申请实施例提供的方法可以由电子设备执行,电子设备可以是终端,如具有无线收发功能的终端或可设置于该终端的芯片或芯片系统。该终端也可以称为用户装置、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、用户终端、终端、无线通信设备、用户代理或用户装置。本申请的实施例中的终端设备可以是手机(mobilephone)、平板电脑(Pad)、带无线收发功能的电脑、虚拟现实(virtual reality,VR)终端设备、增强现实(augmented reality,AR)终端设备、工业控制(industrial control)中的无线终端、无人驾驶(self driving)中的无线终端、远程医疗(remote medical)中的无线终端、智能电网(smart grid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smart city)中的无线终端、智慧家庭(smart home)中的无线终端、车载终端、具有终端功能的RSU等。本申请的终端设备还可以是作为一个或多个部件或者单元而内置于车辆的车载模块、车载模组、车载部件、车载芯片或者车载单元,车辆通过内置的所述车载模块、车载模组、车载部件、车载芯片或者车载单元可以实施本申请提供的方法。
为便于理解本申请实施例,首先以图1中示出的方法为例详细说明适用于本申请实施例的技术方案。示例性的,图1为本申请实施例提供的一种人体姿态的评估方法的流程示意图。
如图1所示,该方法的流程如下:
S101,电子设备获取针对于目标对象连续拍摄的M张图像。
其中,M为大于1的整数,M张图像均包含目标对象。目标对象可以是人,或者称之为用户。
S102,电子设备将M张图像中的第i张图像的数据与第i+s张图像的数据融合,得到融合后的图像的数据。
其中,i为取1至M-s的整数,s为大于1且小于M的整数,融合后的图像的数据的数据量与第i张图像的数据的数据量相同,或融合后的图像的数据的数据量与第i+s张图像的数据的数据量相同。
电子设备将M张图像中的第i张图像的数据与第i+s张图像的数据融合,得到融合后的图像的数据,包括:电子设备将第i+s张图像的数据融合到第i张图像的数据中,得到融合后的图像的数据。
方式1:
第i+s张图像和第i张图像均可以是包含N个像素点的图像,第i张图像的数据中用于表征第i张图像中的第j个像素点的数据可以为第一数据,第i+s张图像的数据中用于表征第i+s张图像中的第j个像素点的数据可以为第二数据,j为取1至N的任一整数。
其中,将第i+s张图像的数据融合到第i张图像的数据中可以是指:若第一数据与第二数据匹配,则可以将融合后的图像的数据中用于表征第j个像素点的数据确定为第一数据或第二数据;或者,若第一数据与第二数据不匹配,则可以将融合后的图像的数据中用于表征第j个像素点的数据确定为第三数据,第三数据表征的第j个像素点的像素值与第i张图像中的第j个像素点的像素值和第i+s张图像中的第j个像素点的像素值均不同。
也就是说,对于尺寸大小相同的两张图像而言,所谓的融合是将两张图像中相同位置且像素值也不同(或者说不匹配)的像素点通过重新赋值的方式标注出来,也即,将两张图像中不同的部分确定出来,这些不同的部分能够反映目标对象的姿态变化。
方式2:
第i+s张图像和第i张图像均可以是包含N个像素点的图像,第i张图像的数据中用于表征第i张图像中的第j个像素点的数据可以为第一数据,第i+s张图像的数据中用于表征第i+s张图像中的第j个像素点的数据可以为第二数据,j为取1至N的任一整数。
其中,将第i+s张图像的数据融合到第i张图像的数据中可以是指:若第一数据与第二数据匹配,则将第一数据与第二数据丢弃;或者,若第一数据和第二数据不匹配,则将第一数据和第二数据确定为融合后的图像的数据。
也就是说,对于尺寸大小相同的两张图像而言,所谓的融合是将两张图像中相同位置且像素值也不同(或者说不匹配)的像素点的数据保存,而将两张图像中相同位置且像素值也相同(或者说匹配)的像素点的数据丢弃,如此融合后的图像的数据仅包含相同位置且像素值也不同(或者说不匹配)的像素点的数据,用以表征目标对象的姿态变化。
第一数据与第二数据匹配可以是指:第一数据的比特流与第二数据的比特流的相差小于预设阈值,第一数据与第二数据不匹配可以是指:第一数据的比特流与第二数据的比特流的相差大于或等于预设阈值。或者,第一数据与第二数据匹配可以是指:第一数据的比特流与第二数据的比特流相同,第一数据与第二数据不匹配可以是指:第一数据的比特流与第二数据的比特流不同。
S103,电子设备根据融合后的图像的数据,确定目标对象的姿态变化。
基于上述方式1:
电子设备根据融合后的图像的数据,确定目标对象的姿态变化,包括:电子设备可以根据融合后的图像的数据,生成一张融合后的图像。电子设备可以通过卷积神经网络处理融合后的图像,确定目标对象的姿态变化。
基于上述方式2:
电子设备根据融合后的图像的数据,确定目标对象的姿态变化,包括:电子设备通过深度神经网络处理融合后的图像的数据,确定目标对象的姿态变化。
例如,对于K对数据组中的第k对数据组,k为取1至K的任一整数,第k对数据组中的第一数据组是用于表征第i张图像中相邻的第一像素点集合的数据,第k对数据组中的第二数据组是用于表征第i+s张图像中相邻的第二像素点集合的数据;位置矩阵中的第k行包含两个矩阵元素,两个矩阵元素中的第一矩阵元素用于表征第一像素点集合的位置,两个矩阵元素中的第二矩阵元素用于表征第二像素点集合的位置。
可以理解,上述的第一像素点集合与第二像素点集合可以表征目标对象的同一部位在两张图像中的不同位置,也即,位置矩阵中的每一行可以表征目标对象的同一部位在两张图像中的不同位置。换言之,目标对象的姿态变化可以通过矩阵的方式表征,如此,深度神经网络分析位置矩阵即是分析目标对象的姿态变化。
此外,第一像素点集合的位置可以是对第一像素点集合中所有像素点各自的位置加权求和得到,同理,第二像素点集合的位置也可以是对第二像素点集合中所有像素点各自的位置加权求和得到。这种情况下,第一矩阵元素是一个值,即第一像素点集合的位置;第二矩阵元素也是一个值,即第二像素点集合的位置。或者,第一像素点集合的位置可以是第一像素点集合中所有像素点各自的位置,同理,第二像素点集合的位置也可以是第二像素点集合中所有像素点各自的位置。这种情况下,第一矩阵元素是一个多维向量,每个多维向量为第一像素点集合中对应一个像素点的位置。第二矩阵元素也是一个多维向量,每个多维向量为第二像素点集合中对应一个像素点的位置。
综上,通过将第i张图像的数据与第i+s张图像的数据在不改变数据大小的情况下融合,实现通过分析一张图像的数据量,便可以确定目标对象的姿态变化,相较于现有技术对多张图像逐一进行分析方式,其大幅降低了姿态分析的处理开销,大幅提高了处理效率。
可以理解,第i张图像与第i+s张图像不应是连续拍摄的M张图像中相邻的两张图像,需要有一定的时间间隔,以保证第i张图像与第i+s张图像中目标对象的姿态是不同的。此外,上述融合的过程可以多次发生,如M张图像为10张,可以分别进行5次融合,如将第1张图像与第6张图像融合,将第2张图像与第7张图像融合,将第3张图像与第8张图像融合,将第4张图像与第9张图像融合,将第5张图像与第10张图像融合。如此,电子设备可以得到5个目标对象的姿态变化的结果,并将相同的结果中数目最多的结果确定为目标对象的姿态变化的最终结果。
以下结合图2-图3详细说明用于执行本申请实施例提供的人体姿态的评估方法的人体姿态的评估装置。
图2是本申请实施例提供的人体姿态的评估装置的结构示意图一。示例性的,如图2所示,人体姿态的评估装置200包括:收发模块201和处理模块202。为了便于说明,图2仅示出了该人体姿态的评估装置的主要部件。
其中,收发模块201,用于电子设备获取针对于目标对象连续拍摄的M张图像,其中,M为大于1的整数,M张图像均包含目标对象;处理模块202,用于电子设备将M张图像中的第i张图像的数据与第i+s张图像的数据融合,得到融合后的图像的数据,其中,i为取1至M-s的整数,s为大于1且小于M的整数,融合后的图像的数据的数据量与第i张图像的数据的数据量相同,或融合后的图像的数据的数据量与第i+s张图像的数据的数据量相同;处理模块202,还用于电子设备根据融合后的图像的数据,确定目标对象的姿态变化。
一种可能的设计方案中,处理模块202,还用于电子设备将第i+s张图像的数据融合到第i张图像的数据中,得到融合后的图像的数据。
可选地,第i+s张图像和第i张图像均可以是包含N个像素点的图像,第i张图像的数据中用于表征第i张图像中的第j个像素点的数据可以为第一数据,第i+s张图像的数据中用于表征第i+s张图像中的第j个像素点的数据可以为第二数据,j为取1至N的任一整数。
其中,将第i+s张图像的数据融合到第i张图像的数据中可以是指:若第一数据与第二数据匹配,则可以将融合后的图像的数据中用于表征第j个像素点的数据确定为第一数据或第二数据;或者,若第一数据与第二数据不匹配,则可以将融合后的图像的数据中用于表征第j个像素点的数据确定为第三数据,第三数据表征的第j个像素点的像素值与第i张图像中的第j个像素点的像素值和第i+s张图像中的第j个像素点的像素值均不同。
进一步的,处理模块202,还用于电子设备根据融合后的图像的数据,生成一张融合后的图像;处理模块202,还用于电子设备通过卷积神经网络处理融合后的图像,确定目标对象的姿态变化。
可选地,第i+s张图像和第i张图像均可以是包含N个像素点的图像,第i张图像的数据中用于表征第i张图像中的第j个像素点的数据可以为第一数据,第i+s张图像的数据中用于表征第i+s张图像中的第j个像素点的数据可以为第二数据,j为取1至N的任一整数。
其中,将第i+s张图像的数据融合到第i张图像的数据中可以是指:若第一数据与第二数据匹配,则将第一数据与第二数据丢弃;或者,若第一数据和第二数据不匹配,则将第一数据和第二数据确定为融合后的图像的数据。
可选地,处理模块202,还用于电子设备通过深度神经网络处理融合后的图像的数据,确定目标对象的姿态变化。
进一步的,处理模块202,还用于电子设备将融合后的图像的数据中匹配的两个数据组作为一对数据组,共K对数据组,其中,K为大于1的整数;处理模块202,还用于电子设备根据第i张图像和第i+s张图像中由K对数据组对应表征的像素点的位置,确定位置矩阵;处理模块202,还用于电子设备通过深度神经网络处理位置矩阵,确定目标对象的姿态变化。
例如,对于K对数据组中的第k对数据组,k为取1至K的任一整数,第k对数据组中的第一数据组是用于表征第i张图像中相邻的第一像素点集合的数据,第k对数据组中的第二数据组是用于表征第i+s张图像中相邻的第二像素点集合的数据;位置矩阵中的第k行包含两个矩阵元素,两个矩阵元素中的第一矩阵元素用于表征第一像素点集合的位置,两个矩阵元素中的第二矩阵元素用于表征第二像素点集合的位置。
可选地,第一数据与第二数据匹配可以是指:第一数据的比特流与第二数据的比特流的相差小于预设阈值,第一数据与第二数据不匹配可以是指:第一数据的比特流与第二数据的比特流的相差大于或等于预设阈值。或者,第一数据与第二数据匹配可以是指:第一数据的比特流与第二数据的比特流相同,第一数据与第二数据不匹配可以是指:第一数据的比特流与第二数据的比特流不同。
可选地,收发模块201可以包括发送模块(图2中未示出)和接收模块(图2中未示出)。其中,发送模块用于实现人体姿态的评估装置200的发送功能,接收模块用于实现人体姿态的评估装置200的接收功能。
可选地,人体姿态的评估装置200还可以包括存储模块(图2中未示出),该存储模块存储有程序或指令。当该处理模块202执行该程序或指令时,使得该人体姿态的评估装置200可以执行上述方法中图1所示的方法中电子设备的功能。
可以理解,人体姿态的评估装置200可以是终端,如远端UE或远端设备,也可以是可设置于终端中的芯片(系统)或其他部件或组件,还可以是包含终端的装置,本申请对此不做限定。
此外,人体姿态的评估装置200的技术效果可以参考图1所示的人体姿态的评估方法的技术效果,此处不再赘述。
图3为本申请实施例提供的人体姿态的评估装置的结构示意图二。示例性地,该人体姿态的评估装置可以是终端,也可以是可设置于终端的芯片(系统)或其他部件或组件。如图3所示,人体姿态的评估装置300可以包括处理器301。可选地,人体姿态的评估装置300还可以包括存储器302和/或收发器303。其中,处理器301与存储器302和收发器303耦合,如可以通过通信总线连接。
下面结合图3对人体姿态的评估装置300的各个构成部件进行具体的介绍:
其中,处理器301是人体姿态的评估装置300的控制中心,可以是一个处理器,也可以是多个处理元件的统称。例如,处理器301是一个或多个中央处理器(centralprocessing unit,CPU),也可以是特定集成电路(application specific integratedcircuit,ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路,例如:一个或多个微处理器(digital signal processor,DSP),或,一个或者多个现场可编程门阵列(field programmable gate array,FPGA)。
可选地,处理器301可以通过运行或执行存储在存储器302内的软件程序,以及调用存储在存储器302内的数据,执行人体姿态的评估装置300的各种功能,例如执行上述图1所示的人体姿态的评估方法。
在具体的实现中,作为一种实施例,处理器301可以包括一个或多个CPU,例如图3中所示出的CPU0和CPU1。
在具体实现中,作为一种实施例,人体姿态的评估装置300也可以包括多个处理器,例如图3中所示的处理器301和处理器304。这些处理器中的每一个可以是一个单核处理器(single-CPU),也可以是一个多核处理器(multi-CPU)。这里的处理器可以指一个或多个设备、电路、和/或用于处理数据(例如计算机程序指令)的处理核。
其中,所述存储器302用于存储执行本申请方案的软件程序,并由处理器301来控制执行,具体实现方式可以参考上述方法实施例,此处不再赘述。
可选地,存储器302可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(electrically erasable programmable read-only memory,EEPROM)、只读光盘(compactdisc read-only memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器302可以和处理器301集成在一起,也可以独立存在,并通过人体姿态的评估装置300的接口电路(图3中未示出)与处理器301耦合,本申请实施例对此不作具体限定。
收发器303,用于与其他人体姿态的评估装置之间的通信。例如,人体姿态的评估装置300为终端,收发器303可以用于与网络设备通信,或者与另一个终端设备通信。又例如,人体姿态的评估装置300为网络设备,收发器303可以用于与终端通信,或者与另一个网络设备通信。
可选地,收发器303可以包括接收器和发送器(图3中未单独示出)。其中,接收器用于实现接收功能,发送器用于实现发送功能。
可选地,收发器303可以和处理器301集成在一起,也可以独立存在,并通过人体姿态的评估装置300的接口电路(图3中未示出)与处理器301耦合,本申请实施例对此不作具体限定。
可以理解的是,图3中示出的人体姿态的评估装置300的结构并不构成对该人体姿态的评估装置的限定,实际的人体姿态的评估装置可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
此外,人体姿态的评估装置300的技术效果可以参考上述方法实施例所述的方法的技术效果,此处不再赘述。
应理解,在本申请实施例中的处理器可以是中央处理单元(central processingunit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的随机存取存储器(random accessmemory,RAM)可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
上述实施例,可以全部或部分地通过软件、硬件(如电路)、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行所述计算机指令或计算机程序时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系,但也可能表示的是一种“和/或”的关系,具体可参考前后文进行理解。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a, b, c, a-b, a-c, b-c, 或a-b-c,其中a,b,c可以是单个,也可以是多个。
应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (6)

1.一种人体姿态的评估方法,其特征在于,应用于电子设备,所述方法包括:
所述电子设备获取针对于目标对象连续拍摄的M张图像,其中,M为大于1的整数,所述M张图像均包含所述目标对象;
所述电子设备将所述M张图像中的第i张图像的数据与第i+s张图像的数据融合,得到融合后的图像的数据,其中,i为取1至M-s的整数,s为大于1且小于M的整数,所述融合后的图像的数据的数据量与所述第i张图像的数据的数据量相同,或所述融合后的图像的数据的数据量与所述第i+s张图像的数据的数据量相同;
所述电子设备根据所述融合后的图像的数据,确定所述目标对象的姿态变化;
其中,所述电子设备将所述M张图像中的第i张图像的数据与第i+s张图像的数据融合,得到融合后的图像的数据,包括:
所述电子设备将所述第i+s张图像的数据融合到所述第i张图像的数据中,得到所述融合后的图像的数据;
其中,所述第i+s张图像和所述第i张图像均是包含N个像素点的图像,所述第i张图像的数据中用于表征所述第i张图像中的第j个像素点的数据为第一数据,所述第i+s张图像的数据中用于表征所述第i+s张图像中的第j个像素点的数据为第二数据,j为取1至N的任一整数;
其中,将所述第i+s张图像的数据融合到所述第i张图像的数据中是指:若所述第一数据与所述第二数据匹配,则将所述融合后的图像的数据中用于表征所述第j个像素点的数据确定为所述第一数据或所述第二数据;或者,若所述第一数据与所述第二数据不匹配,则将所述融合后的图像的数据中用于表征第j个像素点的数据确定为第三数据,所述第三数据表征的第j个像素点的像素值与所述第i张图像中的第j个像素点的像素值和所述第i+s张图像中的第j个像素点的像素值均不同;
或者,所述第i+s张图像和所述第i张图像均是包含N个像素点的图像,所述第i张图像的数据中用于表征所述第i张图像中的第j个像素点的数据为第一数据,所述第i+s张图像的数据中用于表征所述第i+s张图像中的第j个像素点的数据为第二数据,j为取1至N的任一整数;
其中,将所述第i+s张图像的数据融合到所述第i张图像的数据中是指:若所述第一数据与所述第二数据匹配,则将所述第一数据与所述第二数据丢弃;或者,若所述第一数据和所述第二数据不匹配,则将所述第一数据和所述第二数据确定为所述融合后的图像的数据。
2.根据权利要求1所述的方法,其特征在于,所述电子设备根据所述融合后的图像的数据,确定所述目标对象的姿态变化,包括:
所述电子设备根据所述融合后的图像的数据,生成一张融合后的图像;
所述电子设备通过卷积神经网络处理所述融合后的图像,确定所述目标对象的姿态变化。
3.根据权利要求1所述的方法,其特征在于,所述电子设备根据所述融合后的图像的数据,确定所述目标对象的姿态变化,包括:
所述电子设备通过深度神经网络处理所述融合后的图像的数据,确定所述目标对象的姿态变化。
4.根据权利要求3所述的方法,其特征在于,所述电子设备通过深度神经网络处理所述融合后的图像的数据,确定所述目标对象的姿态变化,包括:
所述电子设备将所述融合后的图像的数据中匹配的两个数据组作为一对数据组,共K对数据组,其中,K为大于1的整数;
所述电子设备根据所述第i张图像和所述第i+s张图像中由所述K对数据组对应表征的像素点的位置,确定位置矩阵;
所述电子设备通过深度神经网络处理所述位置矩阵,确定所述目标对象的姿态变化。
5.根据权利要求4所述的方法,其特征在于,对于K对数据组中的第k对数据组,k为取1至K的任一整数,所述第k对数据组中的第一数据组是用于表征所述第i张图像中相邻的第一像素点集合的数据,所述第k对数据组中的第二数据组是用于表征所述第i+s张图像中相邻的第二像素点集合的数据;所述位置矩阵中的第k行包含两个矩阵元素,所述两个矩阵元素中的第一矩阵元素用于表征所述第一像素点集合的位置,所述两个矩阵元素中的第二矩阵元素用于表征所述第二像素点集合的位置。
6.根据权利要求1所述的方法,其特征在于,所述第一数据与所述第二数据匹配是指:所述第一数据的比特流与所述第二数据的比特流的相差小于预设阈值;或者,所述第一数据与所述第二数据不匹配是指:所述第一数据的比特流与所述第二数据的比特流的相差大于或等于所述预设阈值。
CN202311178295.7A 2023-09-13 2023-09-13 人体姿态的评估方法及装置 Active CN116912951B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311178295.7A CN116912951B (zh) 2023-09-13 2023-09-13 人体姿态的评估方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311178295.7A CN116912951B (zh) 2023-09-13 2023-09-13 人体姿态的评估方法及装置

Publications (2)

Publication Number Publication Date
CN116912951A CN116912951A (zh) 2023-10-20
CN116912951B true CN116912951B (zh) 2023-12-22

Family

ID=88358835

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311178295.7A Active CN116912951B (zh) 2023-09-13 2023-09-13 人体姿态的评估方法及装置

Country Status (1)

Country Link
CN (1) CN116912951B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558832A (zh) * 2018-11-27 2019-04-02 广州市百果园信息技术有限公司 一种人体姿态检测方法、装置、设备及存储介质
CN114241597A (zh) * 2021-11-15 2022-03-25 华为技术有限公司 一种姿态识别方法及其相关设备
CN114359974A (zh) * 2022-03-08 2022-04-15 广东履安实业有限公司 一种人体姿态的检测方法、设备及存储介质
CN115587955A (zh) * 2022-10-28 2023-01-10 浙江大华技术股份有限公司 图像融合方法和装置、存储介质和电子装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020206059A1 (de) * 2020-05-13 2021-11-18 Siemens Healthcare Gmbh Computerimplementiertes Verfahren und System zum Trainieren eines Auswertungsalgorithmus, Computerprogramm und elektronisch lesbarer Datenträger

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558832A (zh) * 2018-11-27 2019-04-02 广州市百果园信息技术有限公司 一种人体姿态检测方法、装置、设备及存储介质
CN114241597A (zh) * 2021-11-15 2022-03-25 华为技术有限公司 一种姿态识别方法及其相关设备
CN114359974A (zh) * 2022-03-08 2022-04-15 广东履安实业有限公司 一种人体姿态的检测方法、设备及存储介质
CN115587955A (zh) * 2022-10-28 2023-01-10 浙江大华技术股份有限公司 图像融合方法和装置、存储介质和电子装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于DWT和nova-form聚类法的医学图像颜色特征提取;徐向民等;《科学技术与工程》;第第6卷卷(第第8期期);第1112-1114页 *
基于序号调制的无线空时频码资源开发技术研究;李强;《华南理工大学博士论文集》;第1-137页 *

Also Published As

Publication number Publication date
CN116912951A (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
US10691928B2 (en) Method and apparatus for facial recognition
US11049212B2 (en) Data processing device for processing multiple sensor data and system including the same
US20210322851A1 (en) Exercise information management system and method of controlling the same
Zhu et al. Emergent technologies in big data sensing: a survey
US20200410285A1 (en) Anomaly Augmented Generative Adversarial Network
CN108282453B (zh) 物联网读取装置、安全存取方法以及控制中心设备
US20200082155A1 (en) Hybrid mode illumination for facial recognition authentication
CN111126216A (zh) 风险检测方法、装置及设备
CN111680675B (zh) 人脸活体检测方法、系统、装置、计算机设备和存储介质
CN105513150A (zh) 签到方法及装置
CN113139428A (zh) 目标识别方法、边缘设备、边防监控系统及可读存储介质
CN111581436B (zh) 目标识别方法、装置、计算机设备和存储介质
CN113379045B (zh) 数据增强方法和装置
CN116912951B (zh) 人体姿态的评估方法及装置
CN116524206A (zh) 目标图像的识别方法及装置
CN110809083A (zh) 一种移动终端信息提醒的方法、移动终端及存储介质
KR102444163B1 (ko) 객체 인식 기술을 이용한 아동 그림 이미지의 유형 분석 시스템
CN113900519A (zh) 注视点获取方法、装置以及电子设备
US11599827B2 (en) Method and apparatus for improving the robustness of a machine learning system
CN106204261A (zh) 一种信息处理方法、终端和服务器
CN114237861A (zh) 一种数据处理方法及其设备
CN114338736B (zh) 物联网设备的数据传输管理系统、方法和计算机装置
CN115659302B (zh) 一种漏检人员确定方法、装置、电子设备及存储介质
CN116797228A (zh) 支付方法、装置、设备以及存储介质
CN113742537B (zh) 基于产品树的构建方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant