CN111046715B - 一种基于图像检索的人体动作对比分析方法 - Google Patents

一种基于图像检索的人体动作对比分析方法 Download PDF

Info

Publication number
CN111046715B
CN111046715B CN201910807918.XA CN201910807918A CN111046715B CN 111046715 B CN111046715 B CN 111046715B CN 201910807918 A CN201910807918 A CN 201910807918A CN 111046715 B CN111046715 B CN 111046715B
Authority
CN
China
Prior art keywords
video
human body
coordinates
hash
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910807918.XA
Other languages
English (en)
Other versions
CN111046715A (zh
Inventor
赵红领
李润知
崔莉亚
刘浩东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou University
Original Assignee
Zhengzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University filed Critical Zhengzhou University
Priority to CN201910807918.XA priority Critical patent/CN111046715B/zh
Publication of CN111046715A publication Critical patent/CN111046715A/zh
Application granted granted Critical
Publication of CN111046715B publication Critical patent/CN111046715B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像检索的人体动作对比分析方法,通过单目摄像机或手机获取人体运动的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、身高、所做动作名称,对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关键点坐标,当需要进行动作对比分析时,利用局部敏感哈希算法LSH在图像特征库中进行快速相似性搜索找到相似的视频帧关键点坐标,利用相似的关键点坐标获取对应的视频帧,保存视频帧并组合成新视频与目标视频进行对比分析,帮助体育教练、学生把精力放在那些他们应该关注的东西上,学生从每日繁琐的训练中解放出来,从而专注于自己的不足之处。

Description

一种基于图像检索的人体动作对比分析方法
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于图像检索的人体动作对比分析方法。
背景技术
在大数据时代的背景下,计算机视觉领域备受关注,其中人体动作分析算法的研究已经成为热点问题。当前利用视频进行人体动作分析仍是计算机视觉中一个极具挑战性的课题,涉及图像处理、模式识别、人工智能等多个学科,在智能监控、人机交互、康复运动、体育训练等领域有着广泛的应用前景。
人类的行为是通过一系列有逻辑动作完成的,而动作又直接反应在人体的骨架运动上,基于人体位姿估计的方法可以进行更为精确的人体动作分析,并达到其他方法所达不到的高精度。其中人体位姿估计通常是利用计算机视觉相关技术从图像中检测、定位人体关节位置,得到的精确姿态能够应用在行为识别、人机交互、健康监测及动作捕捉等诸多领域。
图像是多媒体信息的重要组成部,它包含的内容丰富、直观、具有文本信息领域无法企及的强大的信息表现和描述能以,一直以来都是人们进行信息交流和传递的重要方式之一。局部图像特征描述是计算机视觉的一个基本研究问题,在寻找图像中的对应点以及物体特征描述中有着重要的作用,近年来基于局部描述算子的图像检索方法一直被广泛研究。
目前在动作对比分析和运动质量评估方面的研究工作较少,专业的人体运动动作分析人员缺乏,无法进行合理的指导。所以发明一种鲁棒性高,时间开销稳定的人体动作对比分析方法,对于运动过程中的动作对比分析和动作质量评估具有重要的意义。
发明内容
针对上述情况,为克服现有技术之缺陷,本发明之目的在于提供一种基于图像检索的人体动作对比分析方法,具有构思巧妙、人性化设计的特性,解决了运动训练过程中的实时动作分析和动作质量评估问题。
其解决的技术方案是,一种基于图像检索的人体动作对比分析方法,包括如下步骤:
步骤1:通过单目摄像机或手机获取人体运动的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、身高、所做动作名称。
步骤2:对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关键点坐标,其步骤如下:
步骤2-1:将拍摄的视频数据转换成统一的尺度;
步骤2-2:通过迁移学习利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、右手面、左肩、左手肘、左手腕、左手面、右臀部、右膝盖、右脚掌、右脚踝、左臀部、左膝盖、左脚踝、左脚掌这18个关节点的坐标位置,坐标表示为Ci=(cxi,cyi),Ci=(cxi,cyi),表示坐标cx1表示第一个关节点的x坐标cy1表示第一个关节点的y坐标C1是第一个关键点坐标的坐标集合,其中i从1到18;
步骤3:对所得的18个关键点坐标以左臀部、右臀部和脖子三点构成的三角形重心为原点定义一个坐标系,获得转换后的坐标点矩阵P,将二维人体姿态固定在一张460cm×530cm的空白图片中;
步骤4:构建图像特征库,其步骤如下:
步骤4-1:选取目标视频对象,并按照每个人为类别进行存储;
步骤4-2:获取视频的每一帧图像,提取关键点坐标并按照名字和ID进行编号建立索引;
步骤4-3:并利用FREAK(Fast Retina Keypoint)算法提取关键点形状特征,即,每一帧图片的描述子;
步骤4-4:每一个视频对应一系列图片,每一个图片对应一组关键点坐标,每一组坐标对应一个图片描述子,并建立对应的索引,以此构建图像特征库。
步骤5:当需要进行动作对比分析时,利用局部敏感哈希算法LSH在图像特征库中进行快速相似性搜索找到相似的视频帧关键点坐标,利用相似的关键点坐标获取对应的视频帧,保存视频帧并组合成新视频与目标视频进行对比分析,以此来发现两者之间的差别。
由于以上技术方案的采用,本发明与现有技术相比具有如下优点;
1.在跳绳训练结束后,将自己的跳绳视频和标准跳绳视频进行对比分析,然后知道自己的动作哪里出现了问题,发明的目的就是取代人工,帮助体育教练、学生把精力放在那些他们应该关注的东西上,学生从每日繁琐的训练中解放出来,从而专注于自己的不足之处,那么无疑将更能激发学生的潜力,提高体育考试的成绩。
附图说明
图1是本发明优选实施列中单摇双脚跳动作对比分析流程图;
图2是Open-pose网络框架图;
图3是跳绳过程中的18个点的人体姿态估计图;
图4人体关键点在直角坐标系中呈现图;
图5图像检索结构图;
图6人体关键点匹配图。
具体实施方式
有关本发明的前述及其他技术内容、特点与功效,在以下配合参考附图1至图6对实施例的详细说明中,将可清楚的呈现。以下实施例中所提到的结构内容,均是以说明书附图为参考。
实施例一,一种基于图像检索的人体动作对比分析方法,包括如下步骤:
步骤1:通过单目摄像机或手机获取人体运动的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、身高、所做动作名称;
步骤2:对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关键点坐标,其步骤如下:
步骤2-1:将拍摄的视频数据转换成统一的尺度;
步骤2-2:通过迁移学习利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、右手面、左肩、左手肘、左手腕、左手面、右臀部、右膝盖、右脚掌、右脚踝、左臀部、左膝盖、左脚踝、左脚掌这18个关节点的坐标位置,坐标表示为Ci=(cxi,cyi),Ci=(cxi,cyi),表示坐标cx1表示第一个关节点的x坐标cy1表示第一个关节点的y坐标C1是第一个关键点坐标的坐标集合,其中i从1到18;
步骤3:对所得的18个关键点坐标以左臀部、右臀部和脖子三点构成的三角形重心为原点定义一个坐标系,获得转换后的坐标点矩阵P,将二维人体姿态固定在一张460cm×530cm的空白图片中;
步骤4:构建图像特征库,其步骤如下:
步骤4-1:选取目标视频对象,并按照每个人为类别进行存储;
步骤4-2:获取视频的每一帧图像,提取关键点坐标并按照名字和ID进行编号建立索引;
步骤4-3:并利用FREAK(Fast Retina Keypoint)算法提取关键点形状特征,即,每一帧图片的描述子;
步骤4-4:每一个视频对应一系列图片,每一个图片对应一组关键点坐标,每一组坐标对应一个图片描述子,并建立对应的索引,以此构建图像特征库。
步骤5:当需要进行动作对比分析时,利用局部敏感哈希算法LSH在图像特征库中进行快速相似性搜索找到相似的视频帧关键点坐标,利用相似的关键点坐标获取对应的视频帧,保存视频帧并组合成新视频与目标视频进行对比分析,以此来发现两者之间的差别。
实施例二,在实施例一的基础上,在执行步骤2时,Open-pose网络框架是一个多阶段双分支的网络结构,其中上面的支路用来预测部分亲和域PAFs,PAFs 用来学习关节点之间的关系;另一个支路用来预测人体关节点位置的置信图用来预测关节点的位置,通过两个分支协同预测进一步提高关节点预测的精度;
在执行步骤2时,通过Labelme图像标注工具,获取左脚掌、右脚掌、左手面、右手面四个坐标的位置信息,在原来关键点的基础上增加四个关键点,并通过迁移学习利用Open-pose获取所需的18个关键点坐标位置;
在执行步骤3时,得到左臀部C11=(cx11,cy11)、右臀部C15=(cx15,cy15)和脖子 C2=(cx2,cy2)的坐标,定义坐标原点,即,C2、C11、C15三点的重心点C0=(cx0,cy0), 其中
Figure RE-GDA0002412098380000051
在执行步骤4时,FREAK描述符是一种模拟人类视网膜的二进制描述符,采用由粗到精、扫视搜索的匹配方法,能够满足实时性要求的同事,对光照变化、模糊、等均具有较好的适应性。
其中,FREAK描述符是二进制比特串,如果用H表示其中一个特征点的FREAK 描述符,用公式表示为:
Figure RE-GDA0002412098380000052
Figure RE-GDA0002412098380000053
Pα是采样点所处的位置,N是特征向量数,
Figure RE-GDA0002412098380000061
表示采样点对Pα中前一个采样点的像素值,
Figure RE-GDA0002412098380000062
表示后一个采样点的像素值;
为了得到更好的,更具有辨识度的描述子,需要对得到的描述子进行降维处理,其步骤为:
步骤C1:建立矩阵D,D的每一行是一个FREAK二进制描述符,即每一行有 N个元素,采样点为S,可以产生S×(S-1)/2个采样点对;
步骤C2:对矩阵D的每一列计算其均值,按照均值大小进行排列;
步骤C3:选取前512列作为最终的二进制描述符。
实施例三,在实施例一基础上,在执行步骤5时,LSH的哈希函数的选择取决于其选择的相似性度量方法,本发明采用Hamming距离下的LSH,其中Hamming 汉明距离是对两个二进制序列的相似度进行度量;
采用Hamming距离下的LSH方法进行大规模的图像检索,即,对获取的二维姿态进行检索,LSH参数为(R,cR,P1,P2),其中R为原空间中两向量的距离,在原空间中,如果两个向量的距离小于R,表示这两个向量相似;P1为相似的向量映射后哈希值相等的概率;c为常数,在原空间中,如果两个向量的距离大于cR表示这两个向量不相似;P2为不相似的向量映射后哈希值的概率相等的概率;
采用LSH方法进行大规模的图像检索,主要包括两个步骤:
步骤D1:建立哈希引表;
步骤D2:以哈希索引表为基本依据,进行在线查找;
其中步骤D1又可以分为以下几个步骤:
步骤E1:选择满足(R,cR,P1,P2)-sensitive的哈希函数;
步骤E2:根据查找结果的准确率确定哈希表的个数L;
步骤E3:根据提取的FREAK特征经过哈希函数哈希到相应的桶内从而构造哈希表;
其中步骤D2又可以分为以下几个步骤:
步骤F1:采用局部敏感哈希算法对查询数据进行计算哈希得到相应的桶号;
步骤F2:根据步骤F1得到的桶号取出相应的数据;
步骤F3:计算查询数据与2L个数据之间的相似度,返回最近邻的数据。
本发明具体使用时,正摇双脚跳动作对比分析主要包括六个部分:数据的采集、数据的处理、坐标点的提取、特征库和图像库的构建、图片的检索、视频的合成;其中所述的数据的采集过程为通过手机或摄像机采集人体正面正摇双脚跳过程的视频流数据,本发明获取了30名经过训练并达到考试要求的初三学生的正摇双脚跳视频;中所述的数据处理包括对不同设备采集的视频流数据进行高和宽的统一设定,将视频高设定为530cm,宽设定为460cm;记录并保存目标对象的基本信息,包括姓名、性别、身高、年龄、所做动作名称;看图1,图2,图3,其中所述的坐标点的提取是通过对视频中每一帧的人体进行姿态估计得到关键点坐标,通过迁移学习利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、右手面、左肩、左手肘、左手腕、左手面、右臀部、右膝盖、右脚掌、右脚踝、左臀部、左膝盖、左脚踝、左脚掌这18个关节点的坐标位置,坐标表示为Ci=(cxi,cyi),其中i从1到18,其中左脚掌、右脚掌、左手面、右手面四个坐标的位置信息,是通过Labelme图像标注工具,增加四个关键点位置信息,并通过迁移学习利用Open-pose获取最终所需的18个关键点坐标位置;
参看图4,对所得的18个关键点坐标以左臀部、右臀部和脖子三点构成的三角形重心为原点定义一个坐标系,并将直角坐标系转换成极坐标系,得到转换后的坐标矩阵P,中原点是利用得到的左臀部C11=(cx11,cy11)、右臀部C15=(cx15,cy15) 和脖子C2=(cx2,cy2)这三个坐标得到;
定义坐标原点,即,C2、C11、C15三点的重心点C0=(cx0,cy0),其中
Figure RE-GDA0002412098380000081
并以原点坐标为参照更新所有坐标点,将二维人体姿态固定在一张460cm×530cm的空白图片中;
参看图1,其中所述的特征库和图像库的构建,其步骤如下:
步骤G1:选取30个目标视频对象,并按照每个人为类别进行存储;
步骤G2:获取视频的每一帧图像,提取关键点坐标并按照名字和ID进行编号建立索引;
步骤G3:并利用FREAK(Fast Retina Keypoint)算法提取关键点形状特征,即,每一帧图片的描述子;
步骤G4:每一个视频对应一系列图片,每一个图片对应一组关键点坐标,每一组坐标对应一个图片描述子,并建立对应的索引,以此构建图像特征库,特种库为每一个人建立一个特征库即共有30个特征库;
其中,FREAK描述符是二进制比特串,如果用H表示其中一个特征点的FREAK 描述符,用公式表示为:
Figure RE-GDA0002412098380000082
Figure RE-GDA0002412098380000083
Pα是采样点所处的位置,N是特征向量数,
Figure RE-GDA0002412098380000084
表示采样点对Pα中前一个采样点的像素值,
Figure RE-GDA0002412098380000085
表示后一个采样点的像素值;
为了得到更好的,更具有辨识度的描述子,需要对得到的描述子进行降维处理,其步骤为:
步骤H1:建立矩阵D,D的每一行是一个FREAK二进制描述符,即每一行有N个元素,采样点为43,可以产生43×(43-1)/2=903个采样点对,本发明中提取了232个特征点,D的大小为232×903;
步骤H2:对矩阵D的每一列计算其均值,按照均值大小进行排列;
步骤H3:选取前512列作为最终的二进制描述符;
参看图1,图5,图6,所述的图片的检索为当需要进行动作对比分析时,利用局部敏感哈希算法LSH(Locality-Sensitive Hashing)在图像特征库中进行快速相似性搜索找到相似的关键点坐标,利用相似的关键点坐标获取对应的视频帧,保存视频帧并组合成新视频与目标视频进行对比分析,以此来发现两者之间的差别;
其中LSH的哈希函数的选择取决于其选择的相似性度量方法,本发明采用Hamming距离下的LSH,其中Hamming汉明距离是对两个二进制序列的相似度进行度量;
采用Hamming距离下的LSH方法进行大规模的图像检索,即,对获取的二维姿态进行检索,LSH参数为(R,cR,P1,P2),其中R为原空间中两向量的距离,在原空间中,如果两个向量的距离小于R,表示这两个向量相似;P1为相似的向量映射后哈希值相等的概率;c为常数,在原空间中,如果两个向量的距离大于cR表示这两个向量不相似;P2为不相似的向量映射后哈希值的概率相等的概率;本发明R设置为0.5,c设置为19,P1设置为0.75,P2设置为0.05;
采用LSH方法进行大规模的图像检索,主要包括两个步骤:
步骤I1:建立哈希引表;
步骤I2:以哈希索引表为基本依据,进行在线查找;
其中步骤I1又可以分为以下几个步骤:
步骤J1:选择满足(R,cR,P1,P2)-sensitive的哈希函数;
步骤J2:根据查找结果的准确率确定哈希表的个数L,本发明中L为44;
步骤J3:根据提取的FREAK特征经过哈希函数哈希到相应的桶内从而构造哈希表;
其中步骤I2又可以分为以下几个步骤:
步骤K1:采用局部敏感哈希算法对查询数据进行计算哈希得到相应的桶号;
步骤K2:根据步骤F1得到的桶号取出相应的数据;
步骤K3:计算查询数据与2L=88个数据之间的相似度,返回最近邻的数据。
参看图1,所述的视频合成,本发明共有30个特征库,每个特征库包含包含 2400张图片和其对应的特征描述子,图片的来源为一分钟的跳绳视频数据采样率为40帧每秒。当需要作对比分析时,为了尽可能匹配所有动作,目标视频数据的采样率应当小于数据库中视频采样率,本发明设置为30帧每秒,利用 Open-pose+FREAK+LSH从30个特征库中获取对应的图片,其中一旦锁定一个特征库,就不在在其他特征库中搜索,利用搜索得到的最匹配的图片合成新的视频。
以上所述是结合具体实施方式对本发明所作的进一步详细说明,不能认定本发明具体实施仅局限于此;对于本发明所属及相关技术领域的技术人员来说,在基于本发明技术方案思路前提下,所作的拓展以及操作方法、数据的替换,都应当落在本发明保护范围之内。

Claims (6)

1.一种基于图像检索的人体动作对比分析方法,其特征在于,包括如下步骤:
步骤1:通过单目摄像机或手机获取人体运动的视频流数据,记录并保存目标对象的基本信息,包括姓名、性别、年龄、身高、所做动作名称;
步骤2:对视频数据进行预处理,并对视频中每一帧的人体进行姿态估计,得到关键点坐标,其步骤如下:
步骤2-1:将拍摄的视频数据转换成统一的尺度;
步骤2-2:通过迁移学习利用Open-pose方法对获得视频中每帧人体的鼻子、脖子、右肩、右手肘、右手腕、右手面、左肩、左手肘、左手腕、左手面、右臀部、右膝盖、右脚掌、右脚踝、左臀部、左膝盖、左脚踝、左脚掌这18个关节点的坐标位置,坐标表示为Ci=(cxi,cyi),Ci=(cxi,cyi),表示坐标cx1表示第一个关节点的x坐标cy1表示第一个关节点的y坐标C1是第一个关键点坐标的坐标集合,其中i从1到18;
步骤3:对所得的18个关键点坐标以左臀部、右臀部和脖子三点构成的三角形重心为原点定义一个坐标系,获得转换后的坐标点矩阵P,将二维人体姿态固定在一张460cm×530cm的空白图片中;
步骤4:构建图像特征库,其步骤如下:
步骤4-1:选取目标视频对象,并按照每个人为类别进行存储;
步骤4-2:获取视频的每一帧图像,提取关键点坐标并按照名字和ID进行编号建立索引;
步骤4-3:并利用FREAK(Fast Retina Keypoint)算法提取关键点形状特征,即,每一帧图片的描述子;
步骤4-4:每一个视频对应一系列图片,每一个图片对应一组关键点坐标,每一组坐标对应一个图片描述子,并建立对应的索引,以此构建图像特征库。
步骤5:当需要进行动作对比分析时,利用局部敏感哈希算法LSH在图像特征库中进行快速相似性搜索找到相似的视频帧关键点坐标,利用相似的关键点坐标获取对应的视频帧,保存视频帧并组合成新视频与目标视频进行对比分析,以此来发现两者之间的差别。
2.如权利要求1所述一种基于图像检索的人体动作对比分析方法,其特征在于,在执行步骤2时,Open-pose网络框架是一个多阶段双分支的网络结构,其中上面的支路用来预测部分亲和域PAFs,PAFs用来学习关节点之间的关系;另一个支路用来预测人体关节点位置的置信图用来预测关节点的位置,通过两个分支协同预测进一步提高关节点预测的精度。
3.如权利要求1所述一种基于图像检索的人体动作对比分析方法,其特征在于,在执行步骤2时,通过Labelme图像标注工具,获取左脚掌、右脚掌、左手面、右手面四个坐标的位置信息,在原来关键点的基础上增加四个关键点,并通过迁移学习利用Open-pose获取所需的18个关键点坐标位置。
4.如权利要求1所述一种基于图像检索的人体动作对比分析方法,其特征在于,在执行步骤3时,得到左臀部C11=(cx11,cy11)、右臀部C15=(cx15,cy15)和脖子C2=(cx2,cy2)的坐标,定义坐标原点,即,C2、C11、C15三点的重心点C0=(cx0,cy0),其中
Figure RE-RE-FDA0002325699490000021
5.如权利要求1所述一种基于图像检索的人体动作对比分析方法,其特征在于,在执行步骤4时,FREAK描述符是一种模拟人类视网膜的二进制描述符,采用由粗到精、扫视搜索的匹配方法,能够满足实时性要求的同事,对光照变化、模糊、等均具有较好的适应性。
其中,FREAK描述符是二进制比特串,如果用H表示其中一个特征点的FREAK描述符,用公式表示为:
Figure RE-RE-FDA0002325699490000031
Figure RE-RE-FDA0002325699490000032
Pα是采样点所处的位置,N是特征向量数,
Figure RE-RE-FDA0002325699490000033
表示采样点对Pα中前一个采样点的像素值,
Figure RE-RE-FDA0002325699490000034
表示后一个采样点的像素值;
为了得到更好的,更具有辨识度的描述子,需要对得到的描述子进行降维处理,其步骤为:
步骤C1:建立矩阵D,D的每一行是一个FREAK二进制描述符,即每一行有N个元素,采样点为S,可以产生S×(S-1)/2个采样点对;
步骤C2:对矩阵D的每一列计算其均值,按照均值大小进行排列;
步骤C3:选取前512列作为最终的二进制描述符。
6.如权利要求1所述一种基于图像检索的人体动作对比分析方法,其特征在于,在执行步骤5时,LSH的哈希函数的选择取决于其选择的相似性度量方法,本发明采用Hamming距离下的LSH,其中Hamming汉明距离是对两个二进制序列的相似度进行度量;
采用Hamming距离下的LSH方法进行大规模的图像检索,即,对获取的二维姿态进行检索,LSH参数为(R,cR,P1,P2),其中R为原空间中两向量的距离,在原空间中,如果两个向量的距离小于R,表示这两个向量相似;P1为相似的向量映射后哈希值相等的概率;c为常数,在原空间中,如果两个向量的距离大于cR表示这两个向量不相似;P2为不相似的向量映射后哈希值的概率相等的概率;
采用LSH方法进行大规模的图像检索,主要包括两个步骤:
步骤D1:建立哈希引表;
步骤D2:以哈希索引表为基本依据,进行在线查找;
其中步骤D1又可以分为以下几个步骤:
步骤E1:选择满足(R,cR,P1,P2)-sensitive的哈希函数;
步骤E2:根据查找结果的准确率确定哈希表的个数L;
步骤E3:根据提取的FREAK特征经过哈希函数哈希到相应的桶内从而构造哈希表;
其中步骤D2又可以分为以下几个步骤:
步骤F1:采用局部敏感哈希算法对查询数据进行计算哈希得到相应的桶号;
步骤F2:根据步骤F1得到的桶号取出相应的数据;
步骤F3:计算查询数据与2L个数据之间的相似度,返回最近邻的数据。
CN201910807918.XA 2019-08-29 2019-08-29 一种基于图像检索的人体动作对比分析方法 Active CN111046715B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910807918.XA CN111046715B (zh) 2019-08-29 2019-08-29 一种基于图像检索的人体动作对比分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910807918.XA CN111046715B (zh) 2019-08-29 2019-08-29 一种基于图像检索的人体动作对比分析方法

Publications (2)

Publication Number Publication Date
CN111046715A CN111046715A (zh) 2020-04-21
CN111046715B true CN111046715B (zh) 2023-03-14

Family

ID=70232437

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910807918.XA Active CN111046715B (zh) 2019-08-29 2019-08-29 一种基于图像检索的人体动作对比分析方法

Country Status (1)

Country Link
CN (1) CN111046715B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111556358B (zh) * 2020-05-20 2022-03-01 维沃移动通信(杭州)有限公司 显示方法、装置和电子设备
CN112364785B (zh) * 2020-11-13 2023-07-25 中移雄安信息通信科技有限公司 一种运动训练指导方法、装置、设备及计算机存储介质
CN113722544A (zh) * 2021-09-16 2021-11-30 福建平潭瑞谦智能科技有限公司 一种基于视频图像分析处理系统及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015165037A1 (zh) * 2014-04-29 2015-11-05 中国科学院自动化研究所 一种基于级联二值编码的图像匹配方法
CN105302833A (zh) * 2014-07-24 2016-02-03 上海极誉实业有限公司 一种基于内容的视频检索数学模型建立方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8234277B2 (en) * 2006-12-29 2012-07-31 Intel Corporation Image-based retrieval for high quality visual or acoustic rendering

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015165037A1 (zh) * 2014-04-29 2015-11-05 中国科学院自动化研究所 一种基于级联二值编码的图像匹配方法
CN105302833A (zh) * 2014-07-24 2016-02-03 上海极誉实业有限公司 一种基于内容的视频检索数学模型建立方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FP-CNNH:一种基于深度卷积神经网络的快速图像哈希算法;刘冶等;《计算机科学》;20160915(第09期);全文 *
一种重复视频的快速检测算法;刘大伟等;《小型微型计算机系统》;20130615(第06期);全文 *

Also Published As

Publication number Publication date
CN111046715A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
CN109086706B (zh) 应用于人机协作中的基于分割人体模型的动作识别方法
CN111046715B (zh) 一种基于图像检索的人体动作对比分析方法
CN103793721B (zh) 一种基于区域相关反馈的行人重识别方法及系统
CN112861624A (zh) 一种人体姿态检测方法、系统、存储介质、设备及终端
CN110575663B (zh) 一种基于人工智能的体育辅助训练方法
CN110503077B (zh) 一种基于视觉的实时人体动作分析方法
Chaudhari et al. Yog-guru: Real-time yoga pose correction system using deep learning methods
CN111274998B (zh) 帕金森病手指敲击动作识别方法及系统、存储介质及终端
Alrubayi et al. A pattern recognition model for static gestures in malaysian sign language based on machine learning techniques
Zhou et al. Learning to estimate 3d human pose from point cloud
CN106030610A (zh) 移动设备的实时3d姿势识别和跟踪系统
CN111310668A (zh) 一种基于骨架信息的步态识别方法
Hu et al. Exemplar-based recognition of human–object interactions
CN111914643A (zh) 一种基于骨骼关键点检测的人体动作识别方法
CN110909565B (zh) 图像识别和行人再识别方法及装置,电子和存储设备
Li et al. Progressive representation adaptation for weakly supervised object localization
CN110956141A (zh) 一种基于局部识别的人体连续动作快速分析方法
CN113229807A (zh) 人体康复评估装置、方法、电子设备及存储介质
Wang et al. Will you ever become popular? Learning to predict virality of dance clips
Pang et al. Analysis of computer vision applied in martial arts
Muhamada et al. Review on recent computer vision methods for human action recognition
Zhou et al. Skeleton-based human keypoints detection and action similarity assessment for fitness assistance
Yan et al. A Review of Basketball Shooting Analysis Based on Artificial Intelligence
CN117238034A (zh) 一种基于时空Transformer的人体姿态估计方法
Li et al. What and how well you exercised? An efficient analysis framework for fitness actions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant