CN110889390A - 姿势识别方法、装置、控制设备和机器可读存储介质 - Google Patents

姿势识别方法、装置、控制设备和机器可读存储介质 Download PDF

Info

Publication number
CN110889390A
CN110889390A CN201911235188.7A CN201911235188A CN110889390A CN 110889390 A CN110889390 A CN 110889390A CN 201911235188 A CN201911235188 A CN 201911235188A CN 110889390 A CN110889390 A CN 110889390A
Authority
CN
China
Prior art keywords
image
template images
gesture
target
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911235188.7A
Other languages
English (en)
Inventor
谭志鹏
谭北平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Beijing Mininglamp Software System Co ltd
Original Assignee
Tsinghua University
Beijing Mininglamp Software System Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University, Beijing Mininglamp Software System Co ltd filed Critical Tsinghua University
Priority to CN201911235188.7A priority Critical patent/CN110889390A/zh
Publication of CN110889390A publication Critical patent/CN110889390A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供一种姿势识别方法、装置、控制设备和机器可读存储介质,通过控制激光设备发出激光束,并根据激光束经目标物体反射后的多道反射激光建立目标物体的3D图像。再对建立的3D图像中的目标物体的姿势进行识别,获得目标物体的姿势信息。该姿势识别方案基于激光信号可建立目标物体的3D图像,从而实现空间上多维度的姿势识别,避免现有的2D姿势识别在空间维度上的局限性,能够满足用户多样化的识别需求。

Description

姿势识别方法、装置、控制设备和机器可读存储介质
技术领域
本申请涉及图像识别技术领域,具体而言,涉及一种姿势识别方法、装置、控制设备和机器可读存储介质。
背景技术
随着图像识别、传感器、计算机视觉等技术的不断进步,人机交互技术已从过去以计算机为中心的鼠标、键盘交互方式逐渐转变为以人为中心的新型交互模式。目前,人机交互技术已迈上更高的台阶,进入了手势识别时代。手势识别现已在娱乐及游戏市场出现,比如挥手可以控制灯光的开关、汽车自动检测附近是否有行人等。随着手势识别技术的发展,用户对于手势识别在空间局限性以及准确度方面的要求越来越高。现有技术中所采用的手势识别一般是基于2D图像实现,对手势识别存在空间上的局限性,难以满足用户多样化的识别需求。
发明内容
本申请的目的包括,例如,提供了一种姿势识别方法、装置、控制设备和机器可读存储介质,其能够实现3D姿势的识别,满足用户多样化的识别需求。
本申请的实施例可以这样实现:
第一方面,实施例提供一种姿势识别方法,应用于识别设备中的控制设备,所述识别设备还包括与所述控制设备连接的激光设备,所述方法包括:
控制所述激光设备发射激光束,并获取所述激光设备接收到的所述激光束经目标物体所反射的多道反射激光;
根据所述激光束以及多道反射激光建立所述目标物体的3D图像;
对所述3D图像中所述目标物体的姿势进行识别,获得所述目标物体的姿势信息。
在可选的实施方式中,所述控制设备中预存有多张模板图像,每张模板图像中包含姿势对象,所述对所述3D图像中所述目标物体的姿势进行识别,获得所述目标物体的姿势信息的步骤,包括:
对所述3D图像进行预处理;
将所述目标物体从所述3D图像的背景中分割出来,得到包含所述目标物体的目标图像;
将所述目标图像与预存的各张模板图像中的姿势对象进行比对,确定出与所述目标图像匹配的模板图像,根据确定出的模板图像中的姿势对象获得所述目标物体的姿势信息。
在可选的实施方式中,所述对所述3D图像进行预处理的步骤,包括:
根据预存的模板图像中的姿势对象的方位,对所述3D图像进行旋转处理;
根据所述模板图像中的姿势对象在所述模板图像中所占的比例,对所述3D图像中的目标物体进行缩放处理。
在可选的实施方式中,所述目标图像包含连续的多帧图像,所述模板图像包含多组,每组模板图像包含多张模板图像,所述将所述目标图像与预存的各张模板图像中的姿势对象进行比对,确定出与所述目标图像匹配的模板图像的步骤,包括:
针对每组模板图像,获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹;
获得多帧目标图像中包含的目标对象的第二质心轨迹;
将所述多帧目标图像与各组模板图像进行比对,获得与所述多帧目标图像匹配的一组模板图像,其中,在多组模板图像中,该组模板图像的第一质心轨迹与所述多帧目标图像的第二质心轨迹相似度最高,且该组模板图像包含的多张模板图像中的姿势对象的姿势与所述多帧目标图像中的目标物体的姿势相似度最高。
在可选的实施方式中,所述针对每组模板图像,获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹的步骤,包括:
针对每组模板图像,检测该组模板图像包含的模板图像的张数是否与所述多帧目标图像的帧数相同;
若不相同,则根据所述多帧目标图像总的帧长并基于动态时间规整算法对该组模板图像包含的多张模板图像的帧间距进行调整,获得调整后的多张模板图像中的姿势对象的第一质心轨迹;
若相同,则获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹。
在可选的实施方式中,所述获得多帧目标图像中包含的目标对象的第二质心轨迹的步骤,包括:
获得各帧目标图像中包含的目标对象的质心;
将多帧目标图像中目标对象的质心进行连线;
利用最小二分法对所述连线进行拟合,得到所述第二质心轨迹。
在可选的实施方式中,所述方法还包括对所述3D图像进行滤波处理的步骤,该步骤包括:
对所述3D图像中的每个像素点进行中值滤波处理;
对中值滤波处理后的3D图像进行双边滤波处理。
第二方面,实施例提供一种姿势识别装置,应用于识别设备中的控制设备,所述识别设备还包括与所述控制设备连接的激光设备,所述装置包括:
获取模块,用于控制所述激光设备发射激光束,并获取所述激光设备接收到的所述激光束经目标物体所反射的多道反射激光;
建立模块,用于根据所述激光束以及多道反射激光建立所述目标物体的3D图像;
识别模块,用于对所述3D图像中所述目标物体的姿势进行识别,获得所述目标物体的姿势信息。
第三方面,实施例提供一种控制设备,包括一个或多个存储介质和一个或多个与存储介质通信的处理器,一个或多个存储介质存储有处理器可执行的机器可执行指令,当控制设备运行时,处理器执行所述机器可执行指令,以执行前述实施方式中任意一项所述的姿势识别方法。
第四方面,实施例提供一种机器可读存储介质,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令被执行时实现前述实施方式中任意一项所述的姿势识别方法。
本申请实施例的有益效果包括,例如:
本申请实施例提供一种姿势识别方法、装置、控制设备和机器可读存储介质,通过控制激光设备发出激光束,并根据激光束经目标物体反射后的多道反射激光建立目标物体的3D图像。再对建立的3D图像中的目标物体的姿势进行识别,获得目标物体的姿势信息。该姿势识别方案基于激光信号可建立目标物体的3D图像,从而实现空间上多维度的姿势识别,避免现有的2D姿势识别在空间维度上的局限性,能够满足用户多样化的识别需求。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的识别设备的示意图结构框图;
图2为本申请实施例提供的控制设备的结构示意图;
图3为本申请实施例提供的姿势识别方法的流程图;
图4为本申请实施例提供的姿势信息确定方法的流程图;
图5为本申请实施例提供的匹配模板图像确定方法的流程图;
图6为本申请实施例提供的第一质心轨迹获取方法的流程图;
图7为本申请实施例提供的第一质心轨迹获取方法的另一流程图;
图8为本申请实施例提供的第二质心轨迹获取方法的流程图;
图9为本申请实施例提供的姿势识别装置的功能模块框图。
图标:10-控制设备;110-处理器;120-存储器;130-通信模块;140-姿势识别装置;141-获取模块;142-建立模块;143-识别模块;20-激光设备。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
此外,若出现术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
需要说明的是,在不冲突的情况下,本申请的实施例中的特征可以相互结合。
请参阅图1,为本申请实施例提供的识别设备的结构示意图,该识别设备包括控制设备10、激光设备20,其中,控制设备10和激光设备20相互连接。激光设备20可以用于发射激光束以及接收激光束被发射或散射后的激光信号。控制设备10可获取激光设备20发射的激光束的信息以及接收的激光信号的相关信息,从而实现对象的3D姿势识别。
在本实施例中,该识别设备可以是具备3D姿势识别功能的例如智能手机、平板电脑、个人电脑、体感设备等终端设备,也可以是单独的具有3D姿势识别功能的终端设备。
请参阅图2,为本申请实施例提供的上述控制设备10的结构示意图,该控制设备10包括存储器120、处理器110及通信模块130。所述存储器120、处理器110以及通信模块130各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。
其中,存储器120用于存储程序或者数据。所述存储器120可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-Only Memory,PROM),可擦除只读存储器(ErasableProgrammable Read-Only Memory,EPROM),电可擦除只读存储器(Electric ErasableProgrammable Read-Only Memory,EEPROM)等。
处理器110用于读/写存储器120中存储的数据或程序,并执行本申请任意实施例提供的姿势识别方法。
通信模块130用于通过网络建立识别设备与其它通信终端之间的通信连接,并用于通过网络收发数据。
应当理解的是,图2所示的结构仅为控制设备10的结构示意图,所述控制设备10还可包括比图2中所示更多或者更少的组件,或者具有与图2所示不同的配置。图2中所示的各组件可以采用硬件、软件或其组合实现。
请参阅图3,图3示出了本申请实施例提供的姿势识别方法的流程示意图,该姿势识别方法可由图2中所示的控制设备10执行。应当理解,在其它实施例中,本实施例的姿势识别方法其中部分步骤的顺序可以根据实际需要相互交换,或者其中的部分步骤也可以省略或删除。该姿势识别方法的详细步骤介绍如下。
步骤S310,控制所述激光设备20发射激光束,并获取所述激光设备20接收到的所述激光束经目标物体所反射的多道反射激光。
步骤S320,根据所述激光束以及多道反射激光建立所述目标物体的3D图像。
步骤S330,对所述3D图像中所述目标物体的姿势进行识别,获得所述目标物体的姿势信息。
目前,在很多人机交互场景下,用户只需要通过特定的姿势即可实现与智能设备之间的交互,从而实现相应的功能。例如,在游戏场景下,智能设备可以识别用户的姿势动作从而实现游戏应用控制,包括如识别用户的身体动作、手部动作或者是手势等。本实施例中,以识别用户的手势为例进行后续说明,当然应当理解,该姿势识别方案也可以用于识别用户的身体其他部位的姿势,如手部姿势、腿部姿势等。
本实施例中,在实际应用中,用户与识别设备进行交互时,控制设备10可控制激光设备20发射激光束。其中,激光设备20可包括激光发射模块以及激光接收模块,控制设备10可控制激光发射模块发射激光束。激光束在到达用户处时,将被用户身体所反射以返回至激光接收模块。本实施例中,着重针对用户的手掌建立3D模型,假设用户的手掌掌心朝向识别设备,则激光束在到达用户的手掌掌心时,激光束会由于从空气到手掌的传播介质的改变,部分激光将在手掌掌心处被反射以返回激光接收模块。而部分激光将继续在手掌介质中传播,而在到达手掌掌背时,由于从手掌到空气的传播介质的改变,该部分激光将被手掌掌背所反射,以返回至激光接收模块。
控制设备10可获取激光接收模块所接收到的多道反射激光,控制设备10可根据发射的激光束和被手掌掌心所反射回的发射激光,以及激光束和被手掌掌背所反射回的发射激光建立手掌的3D图像。在建立手掌的3D图像时,由于手掌的主体部位面积比较大、形状固定,因此最容易确定。在确定出手掌主体部位后,再基于手掌主体部位进行延伸确定各个手指。
建立的3D图像不仅可以体现出手掌的手势动作,还可以体现出手掌在空间多维度上的运动情况,例如包括在相对于激光发射方向垂直的平面上的运动情况,以及与激光发射方向平行的平面上的运动情况。
基于建立的3D图像可实现手掌区域的姿势识别,根据识别出的3D手势实现相应的功能控制。
本实施例中,基于激光信号可建立目标物体的3D图像,从而可以实现目标物体在空间上多维度的姿势识别,避免姿势识别在空间上的局限性,满足用户的多样化的姿势识别需求。
在本实施例中,在对目标物体进行姿势识别时,可以采用与预先建立的模板图像进行匹配的方式确定具体的姿势信息,其中,预存的每张模板图像中包含姿势对象,即具体一定姿势动作的对象,该对象与目标物体一致,例如在目标物体为手部时,则该对象同为手部,在目标物体为手臂时,该对象同为手臂。请参阅图4,具体可通过以下方式实现姿势识别。
步骤S410,对所述3D图像进行预处理。
步骤S420,将所述目标物体从所述3D图像的背景中分割出来,得到包含所述目标物体的目标图像。
步骤S430,将所述目标图像与预存的各张模板图像中的姿势对象进行比对,确定出与所述目标图像匹配的模板图像,根据确定出的模板图像中的姿势对象获得所述目标物体的姿势信息。
为了提高后续姿势识别的精确性,可先对建立的3D图像进行预处理。由于预先建立的模板图像中姿势对象的方位以及姿势对象在模板图像中所占的比例,均可能与实际应用时所建立的3D图像中目标物体的方位以及所占的比例不一致,从而对姿势的匹配造成障碍。
因此,可根据预存的模板图像中的姿势对象的方位,对3D图像进行旋转处理,以使旋转后的3D图像中目标物体的方位与模板图像中的姿势对象的方位一致。并且,可根据模板图像中姿势对象在模板图像中所占的比例,对3D图像中的目标物体进行缩放处理。从而使缩放处理后的3D图像中的目标物体在3D图像中所占的比例,与模板图像中姿势对象在模板图像中所占的比例一致。
由于识别环境等对图像造成的干扰,获得的3D图像通常会产生一定的噪声,在对3D图像进行预处理之后,为了提高3D图像的质量,可对3D图像进行滤波处理,在尽量保留图像细节特征的条件下对图像中的噪声进行抑制,以实现图像的降噪。
本实施例中,在对3D图像进行滤波处理时,首先可对3D图像中的每个像素点进行中值滤波处理。针对3D图像中的每个像素点,将该像素点的灰度值设置为该像素点的邻域窗口内的所有像素点灰度值的中值。
例如,针对3D图像中的某个像素点P(x,y),该像素点的邻域窗口为W,其中W可以是一个3*3的正方形滤波窗口,像素点P共有8个与之相邻的像素点。将滤波窗口W中所有像素点的灰度值按从小到大的顺序进行排序,生成一个数值呈单调上升趋势的二维数据序列。依次扫描3D图像中的所有像素点,选取W内的像素点灰度值的中间值替换成像素点P的原灰度值。然后,再按一定方向移动该滤波窗口,直至完成整个3D图像中的每个像素点的滤波。
此外,在此基础上,还可采用高斯滤波消除高斯噪声,对3D图像中的每个像素点进行加权平均处理。即针对每个像素点,该像素点的像素值由该像素点以及相邻的像素点的像素值经过加权平均后得到。
为了加强3D图像中的目标物体与背景区域的区别,可采用双边滤波处理方式对上述经过中值滤波后的3D图像,或者是经过高斯滤波处理后的3D图像进行滤波处理。
双边滤波处理可以结合3D图像中的像素点的空间临近度以及像素值相似度进行折中处理,从而使目标物体能够从背景区域图像中凸显出来。
在经过上述滤波处理后,可将目标物体从3D图像的背景中分割出来,得到包含目标物体的目标图像。
本实施例中,在目标物体为手掌时,可通过对手掌图像进行识别,以确定手掌主体以及各个手指的关键点,例如包括手掌主体与各个手指的连接处、各个手指尖、各个手指的关节点等共计21个关键点。基于识别出的关键点可以建立手掌的大致的姿势。
将上述得到的目标图像与预存的各张图像中的姿势对象进行比对,确定出多张模板图像中与目标图像匹配的模板图像,从而确定出目标物体的姿势信息。
在本实施例中,可以实现目标物体的静态姿势识别,即针对单帧3D图像中的目标物体的姿势进行识别。在进行静态姿势识别时,可通过将目标图像与各张模板图像进行单独比对的方式,确定出与目标图像匹配的一张模板图像,从而确定目标物体的静态姿势。
此外,还可实现目标物体的动态姿势识别,例如动态手势是指手的位置和形态会随时间的推移而发生变化的手势,由于它可以用来表达比较准确和丰富的信息,因此在人们日常生活的交流和沟通中,动态手势被广泛使用,比如与人打招呼时的挥手,向人表示友好的握手等。用户常常需要使用动态手势作为辅助,从而使自己的表述更加的生动、形象。
在进行动态姿势识别时,不仅需要确定出手势姿势,还需要确定出手掌的运动情况。在此种情形下,获得的目标图像可包含连续的多帧图像,而模板图像可包含多组,每组模板图像包含多张模板图像,一组模板图像可以表征一个动态姿势。请参阅图5,可通过以下方式确定出与目标图像匹配的模板图像:
步骤S510,针对每组模板图像,获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹。
步骤S520,获得多帧目标图像中包含的目标对象的第二质心轨迹。
步骤S530,将所述多帧目标图像与各组模板图像进行比对,获得与所述多帧目标图像匹配的一组模板图像。其中,在多组模板图像中,该组模板图像的第一质心轨迹与所述多帧目标图像的第二质心轨迹相似度最高,且该组模板图像包含的多张模板图像中的姿势对象的姿势与所述多帧目标图像中的目标物体的姿势相似度最高。
请参阅图6,上述步骤S510可以包括以下几个子步骤:
步骤S610,针对每组模板图像,检测该组模板图像包含的模板图像的张数是否与所述多帧目标图像的帧数相同。若不相同,则执行以下步骤S620,若相同,则执行以下步骤S630。
步骤S620,根据所述多帧目标图像总的帧长并基于动态时间规整算法对该组模板图像包含的多张模板图像的帧间距进行调整,获得调整后的多张模板图像中的姿势对象的第一质心轨迹。
步骤S630,获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹。
在本实施例中,预先建立的各组模板图像中包含多张模板,各组模板图像包含的模板图像的张数一般为固定数值,例如20张或30张等。而实际操作中,由于采集的频率不同,确定一个动态姿势的目标图像的张数可能与预存的各组模板图像中的模板图像的张数不同。在将多张目标图像与各组模板图像进行比对,则可能出现无法比对到一组模板图像中完整的姿势的情况。例如,在目标图像为20张,而一组模板图像为30张时,若采用一一比对的方式,则20张目标图像将与该组模板图像中的前20张模板图像进行比对,则该组模板图像中的后10张模板图像中的姿势动作将无法用于匹配,可能导致匹配出现失误。基于此考虑,在本实施例中,在对各组模板图像进行处理时,首先针对每组模板图像,可检测该组模板图像包含的模板图像的张数是否与多帧目标图像的帧数相同。
若一组模板图像包含的模板图像的张数与多帧目标图像的帧数不相同,则根据该多帧图像总的帧长并基于动态时间规整算法对该组模板图像包含的多张模板图像的帧间距进行调整,再获得调整后的多张模板图像中的姿势对象的第一质心轨迹。
例如,在该组模板图像包含的模板图像的张数大于多帧目标图像的帧数时,则需要根据多帧目标图像的总的帧长对该组模板图像进行压缩,即减小该组模板图像中相邻两张模板图像之间的帧间距,以保障帧间距减小之后的该组模板图像的总的帧长与多帧目标图像的总的帧长一致。
而在该组模板图像包含的模板图像的张数小于多帧目标图像的帧数时,则需要根据该多帧目标图像的总的帧长对该组模板图像进行扩展处理,即增大该组模板图像中相邻两张模板图像之间的帧间距,以保障帧间距增大之后的该组模板图像的总的帧长与该多帧目标图像的总的帧长一致。
如此,则将多帧目标图像与该组模板图像进行比对时,可以保障第一帧目标图像与该组模板图像的第一张模板图像进行比对,且最后一帧目标图像能够与该组模板图像的最后一张模板图像进行比对。保障一组模板图像中,用于比对的模板图像中姿势动作的完整性。
如果一组模板图像包含的模板图像的张数与多帧目标图像的帧数相同,则可以直接获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹。
请参阅图7,本实施例中,可通过以下方式获得所述第一质心轨迹:
步骤S710,针对每组模板图像,获得该组模板图像包含的各张模板图像中的姿势对象的质心;
步骤S720,将多张模板图像中姿势对象的质心进行连线;
步骤S730,利用最小二分法对所述连线进行拟合,得到所述第一质心轨迹。
在本实施例中,在获取一组模板图像中包含的多张模板图像中的姿势对象的第一质心轨迹时,可针对该组模板图像中的每张模板图像,获得每张模板图像中包含的姿势对象的质心,该质心可为姿势对象的几何中心点。
本实施例中,在目标物体为手掌,即姿势对象同为手掌时,则手掌的质心为手掌的掌心。在确定手掌的掌心时,对于手掌主体部分的内部的某一像素点,若该像素点与手掌边缘的距离最大,则该像素点可确定为手掌的掌心。本实施例中,可使用手掌轮廓和手掌主体部分的内部的像素点并通过距离变换方法来获得手掌的掌心。
距离变换方法的基本是计算某一个数字图像中非零像素点到其最近的零像素点的距离,也就是到轮廓边缘的最短距离,并能够将时间复杂度控制在一定范围内。
在确定出姿势对象的质心之后,将多张模板图像中姿势对象的质心进行连线。具体地,可获得各张模板图像中姿势对象的质心在模板图像上的坐标值。再建立一个新的坐标系,根据各张模板图像中姿势对象的质心的坐标值,在该坐标系中划设出对应的质心。再将划设出的各个质心依次连线。
需要说明的是,在上述新的坐标系中划设各个质心时,需要按照多张模板图像的先后顺序进行一次划设,如此,才能保障姿势动作的先后顺序不出现混乱。
进一步地,为了使得到的连线更加平滑,便于用于比对,可利用最小二分发对得到的连线进行拟合,从而得到第一质心轨迹。
此外,请参阅图8,在本实施例中,可通过以下方式获得所述第二质心轨迹:
步骤S810,获得各帧目标图像中包含的目标对象的质心;
步骤S820,将多帧目标图像中目标对象的质心进行连线;
步骤S830,利用最小二分法对所述连线进行拟合,得到所述第二质心轨迹。
此外,在对多帧目标图像进行处理,以得到多帧目标图像的第二质心轨迹时,同理,获得各帧目标图像中包含内的目标对象的质心,该质心为目标对象的几何中心点。在目标对象为手掌时,该质心可以是手掌主体部分的中心点。
将多帧目标图像分别对应的质心进行连线,可选地,可获得各帧目标图像中的质心在该帧目标图像中的坐标值,基于新建立的坐标系,将各帧目标图像各自对应的质心划分于坐标系中。在该坐标系中将各帧目标图像对应的质心进行依次连线。
再利用最小二分法对多帧目标图像的质心的连线进行拟合,得到第二质心轨迹。
通过上述过程得到各组模板图像的第一质心轨迹,以及多帧目标图像的第二质心轨迹之后,即可结合各组模板图像中的姿势对象的姿势动作以及第一质心轨迹,得到与多帧目标图像中的目标物体的姿势动作一致,并且质心轨迹一致的模板图像。基于得到的该组模板图像,即可确定目标物体的动态姿势信息。
通过结合质心比对的方式,可以准确区分出姿势动作一致,但是在空间上运动轨迹不同的动态姿势的识别。例如,针对两组动态姿势,其中一组为五个手指展开且左右摆动的招手姿势,另一组为五个手指展开且前后摆动的招手姿势。该两组动态姿势在姿势动作上,即手掌的轮廓上均为一致,但是在空间上的运动轨迹不同。此种情形下,若仅根据手掌轮廓进行姿势识别,则无法准确区分出该两组动态姿势。
而在结合质心轨迹的比对的情况下,则针对五个手指展开且左右摆动的招手姿势,则获得的该组动态姿势的质心轨迹为左右方向的轨迹,而对于五个手指展开且前后摆动的招手姿势,获得的该组动态姿势的质心轨迹为前后方向上的轨迹。如此,可以将该两组动态姿势区分开,识别出准确的动态姿势信息。
综上,本申请实施例提供的姿势识别方法,可通过控制激光设备20发出激光束,并获取激光束经由目标物体所反射的多道反射光,从而建立目标物体的3D图像。基于建立的3D图像可进行目标物体的姿势识别,得到目标物体的姿势信息。通过激光信号建立3D图像的方式,实现空间上多维度的姿势识别,能够满足用户多样化的识别需求。
本实施例中,可通过将3D图像与预存的包含姿势对象的模板图像进行比对,从而确定预存的模板图像中与3D图像匹配的模板图像,从而根据确定出的模板图像获得目标物体的姿势信息,可实现静态姿势识别。
此外,进一步地,本实施例中,可通过对目标物体进行运动跟踪的方式,获得目标物体的质心轨迹,结合预存的模板图像中的姿势对象的质心轨迹,从而实现目标物体的动态姿势识别。
并且,本申请在进行动态姿势的识别时,为了避免用于比对的各组模板图像中包含的模板图像的张数与待识别的多帧目标图像的帧数不一致,从而导致难以比对到完整动态姿势的缺陷,采用了动态时间规整算法的方式进行帧间距调整,以根据多帧图像的总的帧长对模板图像中各模板图像之间的帧间距进行调整,包括压缩或扩展,从而使各组模板图像总的帧长与多帧目标图像的总的帧长一致,进而实现精确地动态姿势匹配的目的。
请参阅图9,为了执行上述实施例及各个可能的方式中的相应步骤,下面给出一种姿势识别装置140的实现方式,可选地,该姿势识别装置140可以采用上述图2所示的控制设备10的器件结构。进一步地,图9为本申请实施例提供的一种姿势识别装置140的功能模块图。需要说明的是,本实施例所提供的姿势识别装置140,其基本原理及产生的技术效果和上述实施例相同,为简要描述,本实施例部分未提及之处,可参考上述的实施例中相应内容。该姿势识别装置140包括获取模块141、建立模块142以及识别模块143。
获取模块141,用于控制所述激光设备20发射激光束,并获取所述激光设备20接收到的所述激光束经目标物体所反射的多道反射激光。可以理解,该获取模块141可以用于执行上述步骤S310,关于该获取模块141的详细实现方式可以参照上述对步骤S310有关的内容。
建立模块142,用于根据所述激光束以及多道反射激光建立所述目标物体的3D图像。可以理解,该建立模块142可以用于执行上述步骤S320,关于该建立模块142的详细实现方式可以参照上述对步骤S320有关的内容。
识别模块143,用于对所述3D图像中所述目标物体的姿势进行识别,获得所述目标物体的姿势信息。可以理解,该识别模块143可以用于执行上述步骤S330,关于该识别模块143的详细实现方式可以参照上述对步骤S330有关的内容。
本实施例中,作为一种可能的实现方式,识别模块143具体可以用于:
对所述3D图像进行预处理;
将所述目标物体从所述3D图像的背景中分割出来,得到包含所述目标物体的目标图像;
将所述目标图像与预存的各张模板图像中的姿势对象进行比对,确定出与所述目标图像匹配的模板图像,根据确定出的模板图像中的姿势对象获得所述目标物体的姿势信息。
在一种可能的实现方式中,识别模块143可以用于通过以下方式对3D图像进行预处理:
根据预存的模板图像中的姿势对象的方位,对所述3D图像进行旋转处理;
根据所述模板图像中的姿势对象在所述模板图像中所占的比例,对所述3D图像中的目标物体进行缩放处理。
在本实施例中,所述目标图像包含连续的多帧图像,所述模板图像包含多组,每组模板图像包含多张模板图像,识别模块143可以用于通过以下方式确定出与目标图像匹配的模板图像:
针对每组模板图像,获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹;
获得多帧目标图像中包含的目标对象的第二质心轨迹;
将所述多帧目标图像与各组模板图像进行比对,获得与所述多帧目标图像匹配的一组模板图像,其中,在多组模板图像中,该组模板图像的第一质心轨迹与所述多帧目标图像的第二质心轨迹相似度最高,且该组模板图像包含的多张模板图像中的姿势对象的姿势与所述多帧目标图像中的目标物体的姿势相似度最高。
在一种可能的实现方式中,识别模块143可以用于通过以下方式获得第一质心轨迹:
针对每组模板图像,检测该组模板图像包含的模板图像的张数是否与所述多帧目标图像的帧数相同;
若不相同,则根据所述多帧目标图像总的帧长并基于动态时间规整算法对该组模板图像包含的多张模板图像的帧间距进行调整,获得调整后的多张模板图像中的姿势对象的第一质心轨迹;
若相同,则获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹。
在一种可能的实现方式中,识别模块143可以用于通过以下方式获得第二质心轨迹:
获得各帧目标图像中包含的目标对象的质心;
将多帧目标图像中目标对象的质心进行连线;
利用最小二分法对所述连线进行拟合,得到所述第二质心轨迹。
在本实施例中,姿势识别模块143还可以包括用于对3D图像进行滤波处理的滤波模块,该滤波模块可以用于:
对所述3D图像中的每个像素点进行中值滤波处理;
对中值滤波处理后的3D图像进行双边滤波处理。
本申请实施例所提供的姿势识别装置140可执行本申请任意实施例所提供的姿势识别方法,具备执行方法相应的功能模块和有益效果。
可选地,上述模块可以软件或固件(Firmware)的形式存储于图2所示的存储器120中或固化于该控制设备10的操作系统(Operating System,OS)中,并可由图2中的处理器110执行。同时,执行上述模块所需的数据、程序的代码等可以存储在存储器120中。
本申请实施例还提供一种包含机器可执行指令的机器可读存储介质,所述机器可执行指令在由计算机处理器执行时用于执行本申请任意实施例所提供的姿势识别方法的相关操作。
综上所述,本申请实施例提供一种姿势识别方法、装置、控制设备10和机器可读存储介质,通过控制激光设备20发出激光束,并根据激光束经目标物体反射后的多道反射激光建立目标物体的3D图像。再对建立的3D图像中的目标物体的姿势进行识别,获得目标物体的姿势信息。该姿势识别方案基于激光信号可建立目标物体的3D图像,从而实现空间上多维度的姿势识别,避免现有的2D姿势识别在空间维度上的局限性,能够满足用户多样化的识别需求。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种姿势识别方法,其特征在于,应用于识别设备中的控制设备,所述识别设备还包括与所述控制设备连接的激光设备,所述方法包括:
控制所述激光设备发射激光束,并获取所述激光设备接收到的所述激光束经目标物体所反射的多道反射激光;
根据所述激光束以及多道反射激光建立所述目标物体的3D图像;
对所述3D图像中所述目标物体的姿势进行识别,获得所述目标物体的姿势信息。
2.根据权利要求1所述的姿势识别方法,其特征在于,所述控制设备中预存有多张模板图像,每张模板图像中包含姿势对象,所述对所述3D图像中所述目标物体的姿势进行识别,获得所述目标物体的姿势信息的步骤,包括:
对所述3D图像进行预处理;
将所述目标物体从所述3D图像的背景中分割出来,得到包含所述目标物体的目标图像;
将所述目标图像与预存的各张模板图像中的姿势对象进行比对,确定出与所述目标图像匹配的模板图像,根据确定出的模板图像中的姿势对象获得所述目标物体的姿势信息。
3.根据权利要求2所述的姿势识别方法,其特征在于,所述对所述3D图像进行预处理的步骤,包括:
根据预存的模板图像中的姿势对象的方位,对所述3D图像进行旋转处理;
根据所述模板图像中的姿势对象在所述模板图像中所占的比例,对所述3D图像中的目标物体进行缩放处理。
4.根据权利要求2所述的姿势识别方法,其特征在于,所述目标图像包含连续的多帧图像,所述模板图像包含多组,每组模板图像包含多张模板图像,所述将所述目标图像与预存的各张模板图像中的姿势对象进行比对,确定出与所述目标图像匹配的模板图像的步骤,包括:
针对每组模板图像,获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹;
获得多帧目标图像中包含的目标对象的第二质心轨迹;
将所述多帧目标图像与各组模板图像进行比对,获得与所述多帧目标图像匹配的一组模板图像,其中,在多组模板图像中,该组模板图像的第一质心轨迹与所述多帧目标图像的第二质心轨迹相似度最高,且该组模板图像包含的多张模板图像中的姿势对象的姿势与所述多帧目标图像中的目标物体的姿势相似度最高。
5.根据权利要求4所述的姿势识别方法,其特征在于,所述针对每组模板图像,获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹的步骤,包括:
针对每组模板图像,检测该组模板图像包含的模板图像的张数是否与所述多帧目标图像的帧数相同;
若不相同,则根据所述多帧目标图像总的帧长并基于动态时间规整算法对该组模板图像包含的多张模板图像的帧间距进行调整,获得调整后的多张模板图像中的姿势对象的第一质心轨迹;
若相同,则获得该组模板图像包含的多张模板图像中的姿势对象的第一质心轨迹。
6.根据权利要求4所述的姿势识别方法,其特征在于,所述获得多帧目标图像中包含的目标对象的第二质心轨迹的步骤,包括:
获得各帧目标图像中包含的目标对象的质心;
将多帧目标图像中目标对象的质心进行连线;
利用最小二分法对所述连线进行拟合,得到所述第二质心轨迹。
7.根据权利要求1所述的姿势识别方法,其特征在于,所述方法还包括对所述3D图像进行滤波处理的步骤,该步骤包括:
对所述3D图像中的每个像素点进行中值滤波处理;
对中值滤波处理后的3D图像进行双边滤波处理。
8.一种姿势识别装置,其特征在于,应用于识别设备中的控制设备,所述识别设备还包括与所述控制设备连接的激光设备,所述装置包括:
获取模块,用于控制所述激光设备发射激光束,并获取所述激光设备接收到的所述激光束经目标物体所反射的多道反射激光;
建立模块,用于根据所述激光束以及多道反射激光建立所述目标物体的3D图像;
识别模块,用于对所述3D图像中所述目标物体的姿势进行识别,获得所述目标物体的姿势信息。
9.一种控制设备,其特征在于,包括一个或多个存储介质和一个或多个与存储介质通信的处理器,一个或多个存储介质存储有处理器可执行的机器可执行指令,当控制设备运行时,处理器执行所述机器可执行指令,以执行权利要求1-7中任意一项所述的姿势识别方法。
10.一种机器可读存储介质,其特征在于,所述机器可读存储介质存储有机器可执行指令,所述机器可执行指令被执行时实现权利要求1-7中任意一项所述的姿势识别方法。
CN201911235188.7A 2019-12-05 2019-12-05 姿势识别方法、装置、控制设备和机器可读存储介质 Pending CN110889390A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911235188.7A CN110889390A (zh) 2019-12-05 2019-12-05 姿势识别方法、装置、控制设备和机器可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911235188.7A CN110889390A (zh) 2019-12-05 2019-12-05 姿势识别方法、装置、控制设备和机器可读存储介质

Publications (1)

Publication Number Publication Date
CN110889390A true CN110889390A (zh) 2020-03-17

Family

ID=69750614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911235188.7A Pending CN110889390A (zh) 2019-12-05 2019-12-05 姿势识别方法、装置、控制设备和机器可读存储介质

Country Status (1)

Country Link
CN (1) CN110889390A (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080107303A1 (en) * 2006-11-03 2008-05-08 Samsung Electronics Co., Ltd. Apparatus, method, and medium for tracking gesture
US20110025834A1 (en) * 2009-07-31 2011-02-03 Samsung Electronics Co., Ltd. Method and apparatus of identifying human body posture
US20120081542A1 (en) * 2010-10-01 2012-04-05 Andong University Industry-Academic Cooperation Foundation Obstacle detecting system and method
CN102999152A (zh) * 2011-09-09 2013-03-27 康佳集团股份有限公司 一种手势动作识别方法和系统
CN103927016A (zh) * 2014-04-24 2014-07-16 西北工业大学 一种基于双目视觉的实时三维双手手势识别方法及其系统
US8958654B1 (en) * 2001-04-25 2015-02-17 Lockheed Martin Corporation Method and apparatus for enhancing three-dimensional imagery data
CN104598915A (zh) * 2014-01-24 2015-05-06 深圳奥比中光科技有限公司 一种手势识别方法与装置
CN105353873A (zh) * 2015-11-02 2016-02-24 深圳奥比中光科技有限公司 基于三维显示的手势操控方法和系统
WO2017147892A1 (en) * 2016-03-04 2017-09-08 Intel Corporation OPERATING INTERNET OF THINGS DEVICES USING LiDAR METHOD AND APPARATUS
CN109190559A (zh) * 2018-08-31 2019-01-11 深圳先进技术研究院 一种手势识别方法、手势识别装置及电子设备
CN109446895A (zh) * 2018-09-18 2019-03-08 中国汽车技术研究中心有限公司 一种基于人体头部特征的行人识别方法
CN109773783A (zh) * 2018-12-27 2019-05-21 北京宇琪云联科技发展有限公司 一种基于空间点云识别的巡防智能机器人及其警务系统
CN109886101A (zh) * 2018-12-29 2019-06-14 江苏云天励飞技术有限公司 姿势识别方法及相关装置
CN109934155A (zh) * 2019-03-08 2019-06-25 哈工大机器人(合肥)国际创新研究院 一种基于深度视觉的协作机器人手势识别方法及装置
CN109948542A (zh) * 2019-03-19 2019-06-28 北京百度网讯科技有限公司 手势识别方法、装置、电子设备和存储介质

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8958654B1 (en) * 2001-04-25 2015-02-17 Lockheed Martin Corporation Method and apparatus for enhancing three-dimensional imagery data
US20080107303A1 (en) * 2006-11-03 2008-05-08 Samsung Electronics Co., Ltd. Apparatus, method, and medium for tracking gesture
US20110025834A1 (en) * 2009-07-31 2011-02-03 Samsung Electronics Co., Ltd. Method and apparatus of identifying human body posture
US20120081542A1 (en) * 2010-10-01 2012-04-05 Andong University Industry-Academic Cooperation Foundation Obstacle detecting system and method
CN102999152A (zh) * 2011-09-09 2013-03-27 康佳集团股份有限公司 一种手势动作识别方法和系统
CN104598915A (zh) * 2014-01-24 2015-05-06 深圳奥比中光科技有限公司 一种手势识别方法与装置
CN103927016A (zh) * 2014-04-24 2014-07-16 西北工业大学 一种基于双目视觉的实时三维双手手势识别方法及其系统
CN105353873A (zh) * 2015-11-02 2016-02-24 深圳奥比中光科技有限公司 基于三维显示的手势操控方法和系统
WO2017147892A1 (en) * 2016-03-04 2017-09-08 Intel Corporation OPERATING INTERNET OF THINGS DEVICES USING LiDAR METHOD AND APPARATUS
CN109190559A (zh) * 2018-08-31 2019-01-11 深圳先进技术研究院 一种手势识别方法、手势识别装置及电子设备
CN109446895A (zh) * 2018-09-18 2019-03-08 中国汽车技术研究中心有限公司 一种基于人体头部特征的行人识别方法
CN109773783A (zh) * 2018-12-27 2019-05-21 北京宇琪云联科技发展有限公司 一种基于空间点云识别的巡防智能机器人及其警务系统
CN109886101A (zh) * 2018-12-29 2019-06-14 江苏云天励飞技术有限公司 姿势识别方法及相关装置
CN109934155A (zh) * 2019-03-08 2019-06-25 哈工大机器人(合肥)国际创新研究院 一种基于深度视觉的协作机器人手势识别方法及装置
CN109948542A (zh) * 2019-03-19 2019-06-28 北京百度网讯科技有限公司 手势识别方法、装置、电子设备和存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
余超等: "基于TLD和DTW的动态手势跟踪识别", 《计算机系统应用》 *
刘江华等: "基于视觉的动态手势识别及其在仿人机器人交互中的应用", 《机器人》 *
王浩宇等: "基于轨迹模板匹配的动态手势识别方法", 《单片机与嵌入式系统应用》 *
赵爱芳等: "复杂环境中多信息融合的手势识别", 《计算机工程与应用》 *
陈甜甜等: "基于深度信息的动态手势识别综述", 《计算机科学》 *

Similar Documents

Publication Publication Date Title
US8837780B2 (en) Gesture based human interfaces
US10469829B2 (en) Information processor and information processing method
KR101184170B1 (ko) 볼륨 인식 방법 및 시스템
US8525876B2 (en) Real-time embedded vision-based human hand detection
US9020266B2 (en) Methods and devices for processing handwriting input
US9965041B2 (en) Input device, apparatus, input method, and recording medium
US9218060B2 (en) Virtual mouse driving apparatus and virtual mouse simulation method
US20160104037A1 (en) Method and device for generating motion signature on the basis of motion signature information
CN106155312A (zh) 手势辨识与控制方法及其装置
JP2015049776A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN110866940A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2007241833A (ja) 認識装置、認識システム、形状認識方法、プログラム及びコンピュータ読み取り可能な記録媒体
JP2012181646A (ja) データ処理装置、データ処理システム、及びプログラム
WO2024164486A1 (zh) 触摸书写笔迹生成方法、装置、电子设备及存储介质
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
Xu et al. Bare hand gesture recognition with a single color camera
CN110889390A (zh) 姿势识别方法、装置、控制设备和机器可读存储介质
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
CN111382702A (zh) 手势识别方法、装置、移动终端和存储介质
CN116301551A (zh) 触控识别方法、触控识别装置、电子设备及介质
CN115421591A (zh) 手势控制装置和摄像设备
CN111062360B (zh) 一种手部追踪系统及其追踪方法
US9761009B2 (en) Motion tracking device control systems and methods
KR101683194B1 (ko) 깊이 영상에서 가장자리 쌍 기반의 손 추적 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200317

RJ01 Rejection of invention patent application after publication