CN105637531A - 人体姿势识别 - Google Patents

人体姿势识别 Download PDF

Info

Publication number
CN105637531A
CN105637531A CN201480057420.1A CN201480057420A CN105637531A CN 105637531 A CN105637531 A CN 105637531A CN 201480057420 A CN201480057420 A CN 201480057420A CN 105637531 A CN105637531 A CN 105637531A
Authority
CN
China
Prior art keywords
articulare
rotational angle
health
podomere
aforementioned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480057420.1A
Other languages
English (en)
Inventor
K.埃勒斯
J.哈特曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Draegerwerk AG and Co KGaA
Draeger Medical GmbH
Original Assignee
Draeger Medical GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Draeger Medical GmbH filed Critical Draeger Medical GmbH
Publication of CN105637531A publication Critical patent/CN105637531A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及借助深度照相机装置识别人体(10)姿势的方法,具有以下步骤:a)通过深度照相机装置(110)在第一时刻(t1)作为初始图像(IB)产生点云(20),b)分析初始图像(IB)以识别身体(10)的身体肢节(12),c)安插具有与至少一个所识别的身体肢节(12)相关的且由转动角度(α)限定的一个回转自由度的至少一个关节点(14),d)通过深度照相机装置(110)在第一时刻(t1)之后的第二时刻(t2)作为后续图像(FB)产生点云(20),e)由初始图像(IB)关于所述至少一个所识别的身体肢节(12)和所述至少一个所安插的关节点(14)分析该后续图像(FB),f)在该后续图像(FB)内确定所述至少一个关节点(14)的转动角度(α),g)将一定的转动角度(α)与转动角度设定值(RV)比较,h)在一定的转动角度(α)与该转动角度设定值(RV)的关联中识别姿势。

Description

人体姿势识别
技术领域
本发明涉及人体姿势识别方法及用于人体姿势识别的识别装置。
背景技术
已知借助深度照相机装置来采集人体姿势。因此,例如以下系统已投放市场,其能够确定各个人体部分或者说各个身体肢节的彼此相对位置。可以从例如小臂相对于上臂的相对位置推导出姿势和进而姿势控制。已知方法例如被用于执行电脑游戏或电视机的控制。在此通常通过深度照相机产生点云,可从点云中通过计算算法算出各自身体部分的当前位置和进而身体部分的相互关联。对所有时刻来说,在此须根据分析评估方法学来处理整个点云。
已知方法的缺点是在该方法的任何时刻都需要相对高的计算成本。因此,在每次运动后的人体活动时必须重新获取整个点云并重新分析。这尤其在辨识小的身体部分乃至各个身体肢节时需要巨大的通常无法提供的计算成本。与此相应,已知方法局限于识别相对粗略的姿势,即,例如手臂向上或向下运动或者小臂弯曲运动。细微运动如不同手势尤其是由不同手指姿态所产生的手势只能通过已知方法以过度复杂的计算投入来解决。这增加了执行这种方法的算不上经济的成本。另外在这种情况下需要分辨率很高的深度照相机以所需速度在点云中可彼此区分地成像各个身体肢节。为此执行相应方法所需要的成本投入也显著增加。
发明内容
本发明的任务是至少部分消除前述缺点。尤其是本发明的任务是以低成本的简单方法也允许识别细微姿势且尤其是识别各个指节的姿势。
前述任务将通过具有权利要求1的特征的方法和具有权利要求15的特征的识别装置完成。由从属权利要求、说明书和附图中得到本发明的其它特征和细节。在此适用与本发明方法相关和当然还有与本发明的识别装置相关(反之亦然)所描述的特征和细节,因而,关于公开内容,总是或能够交替参照一些发明方面。
本发明的方法用于借助深度照相机装置识别人体姿势,具有以下步骤:
a)通过深度照相机装置在第一时刻作为初始图像产生点云;
b)分析初始图像以识别身体的身体肢节;
c)安插具有相对于至少一个身体肢节的由转动角度限定的回转自由度的至少一个关节点;
d)由深度照相机装置在第一时刻之后的第二时刻作为后续图像产生点云;
e)从该初始图像关于所述至少一个所识别的身体肢节和至少一个所安插的关节点分析该后续图像;
f)在该后续图像中确定该至少一个关节点的转动角度;
g)比较所确定的转动角度与转动角度设定值,
h)在确定的转动角度与转动角度设定值的关联中识别姿势。
本发明的方法用于也识别尤其是各个身体肢节如人体手指的细微姿势。但是,该方法原则上可以被用于整个人体中,即用在任何身体肢节上。因此,身体肢节尤其能被定义为单独活动的人体骨头单元。它们例如可以通过小腿、大腿、上臂或小臂构成。更细小的关节如尤其是每个手指的各个指节也可以是本发明意义上的人体身体肢节。
在本发明意义上,并非在任何时刻进行点云的完全分析。相反,在两个不同时刻的点云的比较可以允许缩减至各自身体肢节的模型和相应关节点。因此,不必再进行复杂的图像比较以识别姿势。相反,姿势识别可以被缩减至直接或间接地比较转动角度与转动角度设定值。在间接比较时不必完全重合一致,而是只存在足够的尤其预定的近似。
根据本发明,该方法以初始化开始。深度照相机装置在此最好配备有至少一个深度照相机并且可通过这种方式产生三维点云。即,在也可称为初始化时刻的第一时刻,该点云作为初始图像出现。与身体的身体肢节识别相关地进行初始图像的分析。在此,整个点云或点云的部分区域可以被详细分析。尤其是只在以下身体部分区域中进行分析,该身体部分区域包含姿势所需要的身体肢节。即,如果例如识别人体且查找手指姿势,则只在该手的区域内进行初始图像的详细分析以便进行作为人体身体肢节的各个指节的识别。
关节点的安插与当前所识别的身体肢节相关地进行。因此,例如通过呈指节形式的各个身体肢节限定人手的各个手指。在各个身体肢节之间设有具有一个或多个回转自由度的人体关节。各个身体肢节之间的连接通过本发明所基于的模型通过恰好具有一个规定的自由度的关节点来表现。如果在人体的两个身体肢节之间的真实关节是具有两个或更多回转自由度的结构,则当然也可以安插分别具有一个规定的自由度的两个或更多关节点。为此,根据本发明也可以模拟具有两个或更多回转自由度的人体的复杂关节。通过安插所述关节点,得到了初始转动角度,其按照规定方式表述两个相邻身体肢节的相对定位。即,该转动角度明确无疑地表示身体肢节的相互实际定位。
在此,每个关节点的转动角度在各自坐标系内对应于各自关节点是确定的。在本发明方法中设定的每个关节点具有自身坐标系。由于就像例如在人手的各个指节时那样各个身体肢节相互链接,故在各个身体肢节彼此相对进行复杂运动时也得到各个坐标系的平移运动和/或回转运动。但为了保持随后的分析步骤尽量简单,总是分别与对应关节点的例如平移随动坐标系相关地设定该转动角度。为此,通过在多个关节点中的多个转动角度的关系得到所有身体肢节的规定的彼此相对身体肢节位置。
如从前一段落中知道地,最好采用并安插多个关节点。为此也针对所述多个关节点得到多个转动角度。它们能例如以单列多行矢量形式设置或存储以便更好地一览无余。为此,单列多行矢量以规定的且尤其明确无疑的方式描述各个身体肢节的彼此相对位置。
此外要指出的是,不必为每个所识别的身体肢节也安插一个关节点。因此,例如可以发生身体的所有身体肢节的识别,在这里,对于其它方法步骤仅针对两手或一手安插所述关节点。换言之,在安插关节点时进行从所有所识别的身体肢节中的挑选。这种挑选可以包含一部分的或者所有的所识别的身体肢节。但至少在至少一个所识别的身体肢节中执行唯一的关节点。
在通过步骤a)至c)能完成当前人体状况的初始化后,现在可以进行姿势识别。在第二时刻,又借助深度照相机装置作为后续图像产生在第一时刻后的一个点云。现在,从初始图像中关于在初始化中已识别的身体肢节且与所安插的关节点相关地进行这种分析。接着,在后续图像中进行该至少一个关节点的转动角度的确定。换言之,现在对于多个关节点得到具有多个转动角度的一个新的单列多行矢量。在初始图像和后续图像之间的该矢量内的转动角度变化对应于身体肢节的转动角度的变化和由此导出的人体真实情况下的姿势的变化。
接着,可以执行在后续图像内的一定的转动角度与转动角度设定值的比较。在此,转动角度设定值也例如以单列多行矢量形式构成。因此,可以逐行比较在一定转动角度和转动角度设定值之间是否一致或基本一致或者说足够且尤其按照规定地近似。如果是这种情况,则各自人体肢节的真实运动位置对应于与转动角度设定值相关联的姿势。
当然,该转动角度设定值不仅可以具有特定的单义值,也可以具有数值范围。根据应该如何准确分界地执行各自姿势的识别,可以与之相应地规定特别窄或宽地形成转动角度设定值作为转动角度范围。如从之前的姿势识别描述中清楚明白地,尤其是姿势专属地存储多个不同的转动角度设定值。因此,转动角度或姿势的比较和识别步骤对于转动角度设定值的所有的姿势专属存储数据例如依次进行或并行进行。为此,一直进行所述比较,直到发现呈在一定转动角度和转动角度设定值之间的一致或基本一致形式的充分关联。为此,可以将一定的转动角度配属给对该转动角度设定值而言专属的姿势。
如也从之前描述中明白地,姿势识别现在完全不再需要图像比较。相反,识别任务完全缩减至转动角度与转动角度设定值的比较,这种比较在所需的计算成本方面可以非常成本划算且简单地构成。多行单列矢量与相应的转动角度设定值的单行比较是很简单的计算运算,其既不需要复杂的计算单元,也不需要许多时间。
如此获得本发明方法的另一个优点,就关节点和身体肢节而言实际人体可以从点云缩减至相应的人体模型。为此,针对初始图像和后续图像之间的比较不必再考虑整个点云,而只关注所安插的规定的关节点。为此,后续图像与各自初始图像相关的分析步骤也在所需要的计算成本方面被明显降低。
本发明的方法尤其是被用在医用技术中,例如用于医用设备的姿势控制。它尤其在此是有利的,因为现在多个指令可通过截然不同的手指姿势来控制。同时,姿势控制没有不利影响到各自使用者尤其是其手的无菌性。可以与此相应地在医用领域在医用设备的控制中很有利地获得所解释说明的优点。
当然,也可以想到用于本发明方法的其它应用领域。例如根据本发明的方法可以被用于在机器或甚至运输工具的控制中的典型姿势识别。运输工具中的操作动作可以通过本发明方法借助姿势控制功能来完成。在技术设备如电视机、计算机、移动电话或平板电脑的动作的控制中,也可以采用根据本发明的姿势识别方法。另外,在医用环境中,各个身体肢节的很精确的位置识别可以通过这种方式允许应用在遥控操作领域。人和机器或者人和机器人之间的基本互动在本发明范围内也是一个可能的应用目的。
本发明方法可以改进如下,以重复方式执行步骤d)至h),在此,前一次的后续图像被设定作为后一次的初始图像。为此,可以说提供了一种跟踪或追随方法,其允许基本连续分步执行对姿势变化的监测。这尤其如此实现,执行每个姿势识别节拍所需的计算成本按照本发明方式被明显降低。就是说,不同于已知方法地不再进行针对任何时刻的单独确定,而相反以反复方式时间任意长短地采用一下子最初确定的人体或人体部分的关节模型。为此可以实现连续姿势监测,从而不再需要有意识地启用姿势控制用于实际控制过程。
也有利的是,在本发明方法中该转动角度设定值包括预定的转动角度范围,在此比较一定转动角度是否在转动角度范围内。如已经说明地,转动角度设定值可以是单列多行矢量。对每个单独行可以采用一个专属单义的转动角度作为转动角度设定值。但优选的是在此在每一行规定以下转动角度范围,其例如专门针对一个姿势在10°和25°之间形成。各自转动角度范围的宽度最好是可调构成的且尤其也是姿势专属的。因此,可以通过很窄的转动角度范围实现很近似的手指姿势的干净利落的按规定的分界。如果在本发明方法中仅能区分开少量姿势,则对于实际识别中的较大自由度也可以采用很宽的转动角度范围。误差识别程度或者说相似姿势的分界可与之相应尤其最好通过转动角度范围及其宽度来表示。在此也能清楚发现针对不同姿势通过这种多行矢量中的所有转动角度设定值之和所得到的专一性说明。根据转动角度范围被设计为多宽,也能识别做得不到位的姿势。在此还可以训练姿势。为此,可以记录下所谓的训练集,其随后被分类。基于训练数据,转动角度设定值可以说能被隐含限定。
也有利的是在本发明方法中随相关身体肢节的规定姿势执行步骤a)和b),尤其是以不同的姿势先后进行至少两次。在此,它可以说是按照规定的本发明的初始化。一种可能性是,用张开的手作为待识别身体肢节总和地提供规定姿势用于初始化步骤。规定的连串姿势例如所有手指叉开和合拢成拳能作为先后所做的两个不同姿势提供一个双重初始化步骤。但它在此只是一个优选实施方式。本发明方法也在不采用规定姿势用于初始化的情况下发挥作用。但是,用于初始化的规定姿势能在精度方面改善关节点的最初安插。在此所述的初始化可能性不仅可被用于开始本发明的方法,也在其间被采用。在此,在第一循环a)和b)的步骤执行之后是第二循环c)至h)的步骤。这两个循环能任意频繁地重复。如果例如设置两个规定姿势用于初始化,则在方法进入第二循环之前执行两次第一循环。因为第二循环表示姿势的识别和进而最好连续的监测,故第二循环最好无固定终值地重复。第二循环的最大重复次数也可以引发通过第一循环的自动校准,例如在每1000次经过第二循环之后。
另外有利的是,针对至少两个关节点尤其是多个关节点执行本发明方法,在此,这些关节点共同形成一个身体肢节模型。如已经描述地,为此也可以很简单且以低计算成本把身体指节模型中的复杂人体部分如包括指节的手和进而通过关节相连的多个身体肢节作为本发明方法的基础。为此可行的是例如以相反方式采用机器人控制。因此,可以在这样的情况下例如规定在关节点的单独可平移运动的和/或可互转运动的坐标系之间的已知的变换控制,以便相应发现实际完成姿势或实际完成动作的后确定。
还有利的是,在本发明方法中在分析后续图像时识别该点云的所有配属于至少一个关节点的点并且将这些点的重心设定为新关节点。因此,关节点的实际定位尤其取决于深度照相机装置的分辨率。在相对粗略的深度照相机装置情况下无法做到将一个单独的专属点配属于各自关节点。因此,被认为对应于各自关节点的所有点针对该关节点被限定且所述点的重心被设定为新的关节点。这有助于在深度照相机的成本较低且分辨率不太高的情况下也允许新关节点的明确且尽可能精确的定位。
有利的是,在本发明方法中针对人手的身体肢节执行所述方法。这尤其大多以合理的计算成本只借助本发明方法才能实现。人手通过许多身体肢节的许多实际存在的指关节演示很多不同的手势。为此,人手形成很简单的且尤其很多变应用的媒介,以便能识别不同的手势。
根据前一段落的本发明方法可以改进如下,对于所有手指,相同数量的关节点和身体肢节形成一个手模型。即,手模型在此情况下是如上所述的身体肢节模型。通过以相同方式即以同样数量的关节点和身体肢节形成包含大拇指在内的所有手指,用于在本发明方法执行时计算成本被进一步降低。尤其是大拇指从医学角度来看处于手上的特殊部位。在此,近端大拇指关节不是医学意义上的真正指关节,而表示大拇指的可活动性。为了在本发明的手模型中塑造出这种可活动性,在此也可以安插一个或多个关节点。但是,如果不需要大拇指的可活动性的手势变体,则相应关节点可被设置用于不具有回转自由度的大拇指且进而用作无用关节点。为此,对于所有手指保持与关节点数量的一致。但是,至少在大拇指的姿势识别时的计算成本降低了。换言之,对于该关节点,相对运动和/或位置变化设为零。
除了降低计算成本外的另一个优点是各个手模型的现有的镜像可能性。为此可行的是无需软件调整将其用于两手或两手取向。为此,可能的手势数量甚至可能增至两倍或多倍,因为现在可以识别两手姿势的关联性。优选的是此时两手被相互区分开,即左手和右手分别能被分为左右。在此注意,对于手模型重要的是各手是否在看向手背的视线或看向手心的视线中被注意到。为了所述区分,例如可以采用初始规定的本申请所述的手势。也可以根据识别进程和关节运动方向来推断手取向。在此可以考虑关节的实际可活动性。换言之,通过一连串执行本发明方法,还完成所识别的手的“左”或“右”和“看手心”或“看手背”的取向的确定。
另一个优点可以是,在本发明方法中,对于手背、手腕和/或手臂末端或手心安插三个关节点。因为如已描述的那样例如通过点云的许多点根据其重心实现各自关节点的地点的限定,故在确定的手位置和用于手背的单个关节点情况下有可能发生错误定位。换言之,对于手背从该点云的总是较少和/或相邻更近的点推断出相应的重心。换言之,该手背重心附近的点云点被集中且进而提供比较差的几何平均值用于该重心。对此,为此安插的关节点的位置也不准确,结果,在确定的关节位置和姿势的情况下仅不能令人满意地或可能有误地显现真实位置。为了在这种复杂姿势情况下也允许尤其有利且良好地识别出当前姿势,现在安插最好三个关节点用于手背。尤其是在深度照相机装置的分辨率相对低且因而成本较低的深度照相机的情况下,还是可以通过这种方式实现相对良好的手背定位效果。尤其是有利的是两个关节点从手背被拉入手臂末端中。
也有利的是,在本发明方法中在与大拇指相反的手侧在手模型中安插至少另一个关节点。借此获得与前一段落中的相同的优点。尤其是该关节点的安插以关于相应的下个大拇指关节点呈镜像或基本呈镜像的方式进行。换言之,通过手背上的所述三个关节点和/或通过本实施方式的其它关节点撑开整个手背,从而可以避免不希望有的手背错误定位或手背收聚至单独的关节点。显然,多个点尤其是中间点也还能以较细网络撑开出手背以便还进一步更好地获得所述优点。
也有利的是在本发明方法中在确定至少两个关节点时两个关节点之间的身体肢节的长度具有预定值。即,各个身体肢节在手模型或身体肢节模型的显示中通过其长度且可以说作为杆架结构来显现。各个关节点通过各自杆的长度相互连接。如果该长度是设定的,则后续分析的所需计算成本变得更低。该长度可以尤其可调地构成,从而例如针对各自身体肢节可以规定大、中和小的长度粗略设定值。当然也可通过运行的方法实现对于各自身体肢节长度的调整或自学式形成。尤其对于在作为初始图像的第一图像时的初始化步骤,通过这种方式获得计算成本的节约。
另外有利的是,在本发明方法中将至少两个关节点安插在同一地点,以模仿具有至少两个回转自由度的人体关节。尤其是在掌骨和近端指骨之间的关节在人体中是具有两个回转自由度的关节。为了将这种复杂关节转用至根据本发明保持简单的方法,可以相应地将两个关节点安插在相同地点。这允许本发明方法也用在真实的复杂人体关节中。可以在此情况下采用已述的机器人控制,其例如能以Denavit-Hartenberg控制器形式被采用。
还有利的是在本发明方法中至少两个关节点的转动角度以单列矢量形式被存储且与呈单列矢量形式的转动角度设定值逐行比较。本实施方式已经在多处有所描述。在此清楚明白的是,单独的行比较能提供姿势识别。转动角度设定值矢量是姿势专属的。与此相应,对于每个期望待识别的姿势规定一个转动角度设定值和进而一个姿势专属的转动角度设定值矢量。相应比较是利用所有已识别的转动角度的单列矢量和转动角度设定值的所有单列矢量同时或先后进行的。
当在本发明方法中在无法在后续图像内识别身体肢节和/或关节点采用该初始图像的转动角度用于该后续图像时,可以获得另一个优点。因此,在有时对深度照相机装置而言被遮挡的肢节情况下,该方法可以进一步以相同的方式和仅以小的误差来执行。这是进一步的优点,其使得与已知方法的巨大区别更加明显。在已知方法中无法再识别被遮挡的身体肢节且相应地也无法再可供用于姿势识别,在这里,从初始图像向后续图像的转换可以按照本发明方式允许借助本发明方法的进一步识别。调整例如可以通过转动角度设定值的转动角度范围的宽度的相应扩展来实现。
本发明的主题也是一种用于识别人体姿势的识别装置,具有深度照相机装置和控制单元。本发明的识别装置的特点是,该控制单元被构造用于执行本发明的方法。与此相应,本发明的识别装置带来了与关于本发明方法所明确描述的相同的优点。
附图说明
从以下参照附图描述本发明实施例的说明中得到了本发明的其它优点、特征和细节。在此,如权利要求书和说明书所述的特征可以本身单独对本发明是重要的,或以任何组合形式对本发明是重要的,附图示意示出:
图1是点云的第一视图,
图2是所识别的手的视图,
图3示出图2的手连同设于其中的身体肢节模型,
图4单独示出手的身体肢节模型,
图5示出在第一姿势位置的三个身体肢节,
图6示出在第二姿势位置的图5的身体肢节,
图7是本发明方法的多个实施的时间视图,
图8示出比较用于两个转动角度的矢量的可能性,
图9示出本发明识别装置的实施方式。
具体实施方式
结合图1-4,原则上示出来自识别装置100的信息被转换到身体肢节模型30中。因此,整个事情以深度照相机装置110拍摄人体10在此是手16开始,这导致了点云20。在此,为了概览起见仅针对作为身体肢节12的最远端指关节示出了点云20。按照相同的方式进行从点云20中识别整个身体肢节12和最好还有相应的手背17。结果,存在如图2所示的点云20识别。因此,在那里发现具有包括大拇指18a在内的所有手指18的整个手16。手指具有作为身体肢节12的各自指节。
随后,对于本发明的方法可以进行各个关节点14的安插。这与在两个身体肢节12之间的各自实际关节相关联。两个相邻关节点14之间的距离最好被定为各自身体肢节12的长度13且是身体肢节专属的。也如图3所示,对于所有的手指18采用相同数量的关节点。另外,作为在其相反侧上的大拇指18a的对应物,另一个关节点14右侧靠外地安插在身体肢节模型30的手背17上。附加地,在手背17和手臂末端19中,三个关节点14形成一个三角形,因而总体可以避免在不同的且尤其是复杂的手势16下的手背17收聚。
图4示出人体10的手16缩小至实际的身体肢节模型30,它现在是姿势识别的基础。对于随后的识别步骤来说,从点云20中进行各自关节点14的当前新定位就够了。现在,无需再进行如在图1和图2之间完成的整个手16的完整识别。
图5和6示意性示出姿势识别可如何发生。因此,对于每个关节点14限定一个自身坐标系,从而可以对于身体关节12专属地识别用于每个关节点14的相应转动角度α。如果由例如手指弯曲造成的运动如从图5至图6所示那样进行,则各个转动角度α与此相应也改变。转动角度α的存储例如可以单列多行矢量形式进行,尤其如图8所示。图8也示出与转动角度设定值RV的可能比较,该转动角度设定值在此也作为具有转动角度设定值范围的矢量来构成。在此实施方式中如此进行两个矢量的协调一致,即,所述姿势可被认为是已有的。相应地,转动角度设定值RV是姿势专属的。
在图7中能看到在方法开始时的第一时刻t1进行初始化,即如从图1至图2所述的执行。接着,可以在第二时刻t2在后续图像FB中进行与初始图像IB的比较。对于后面的步骤,来自第一次的后续图像FB设置作为第二次的初始图像IB,且可以与此相应地任意扩展该方法。
图9示意性示出本发明的识别装置100。它配备有包括至少一个深度照相机的深度照相机装置110。深度照相机装置110以通信方式与执行本发明方法的控制单元120相连。人体10且在此情况下是手16位于深度照相机装置110的采集范围内。
实施方式的在前描述只在例子范围内描述了本发明。显然,该实施方式的若干特征可以自由相互组合而没有脱离本发明的范围,只要在技术上是有意义的。
附图标记列表
10人体;12身体肢节;13身体肢节长度;14关节点;16手;17手背;18手指;18a大拇指;19手臂末端;20点云;30身体肢节模型;100识别装置;110深度照相机装置;120控制单元;t1第一时刻;t2第二时刻;t3第三时刻;α转动角度;IB初始图像;FB后续图像;RV转动角度设定值。

Claims (15)

1.一种借助深度照相机装置(110)识别人体(10)姿势的方法,具有以下步骤:
a)通过所述深度照相机装置(110)在第一时刻(t1)产生点云(20)作为初始图像(IB),
b)分析该初始图像(IB)以识别该身体(10)的身体肢节(12),
c)安插具有与至少一个所识别的身体肢节(12)相关的且由转动角度(α)限定的一个回转自由度的至少一个关节点(14),
d)通过所述深度照相机装置(110)在第一时刻(t1)之后的第二时刻(t2)产生点云(20)作为后续图像(FB),
e)从该初始图像(IB)关于所述至少一个所识别的身体肢节(12)和所述至少一个所安插的关节点(14)分析该后续图像(FB),
f)在该后续图像(FB)内确定所述至少一个关节点(14)的转动角度(α),
g)将确定的转动角度(α)与转动角度设定值(RV)比较,
h)在确定的转动角度(α)与该转动角度设定值(RV)的关联中识别姿势。
2.根据权利要求1的方法,其特征是,以重复方式执行所述步骤d)至h),其中前一次的后续图像(FB)被设定作为用于后一次的初始图像(IB)。
3.根据前述权利要求之一的方法,其特征是,转动角度设定值(RV)包括预定的转动角度范围,在此比较该确定的转动角度(α)是否在该转动角度范围内。
4.根据前述权利要求之一的方法,其特征是,所述步骤a)和b)以相关的身体肢节(12)的规定姿势来进行,尤其以不同的姿势先后进行至少两次。
5.根据前述权利要求之一的方法,其特征是,对于至少两个关节点(14)尤其对于许多关节点(14)执行该方法,其中这些关节点(14)共同构成一个身体肢节模型(30)。
6.根据前述权利要求之一的方法,其特征是,在分析该后续图像(FB)时识别该点云(20)的所有属于该至少一个关节点(14)的点并且将该点的重心设为新的关节点(14)。
7.根据前述权利要求之一的方法,其特征是,对于人手(16)的身体肢节(12)进行该方法。
8.根据权利要求7的方法,其特征是,对于该手(16)的所有手指(18),同样多的关节点(14)和身体肢节(12)形成作为身体肢节模型(30)的手模型。
9.根据权利要求7或8的方法,其特征是,对于手背(7)、手腕和/或手臂末端(19)安插三个关节点(14)。
10.根据权利要求7至9之一的方法,其特征是,在手模型中在该手(16)的与大拇指(18a)相对的一侧安插至少另一个关节点(14)。
11.根据前述权利要求之一的方法,其特征是,在确定至少两个关节点(14)时,在所述两个关节点(14)之间的身体肢节(12)的长度(13)具有预定值。
12.根据前述权利要求之一的方法,其特征是,至少两个关节点(14)安插在同一个地点上,以模仿具有至少两个转动自由度的人体关节。
13.根据前述权利要求之一的方法,其特征是,至少两个关节点(14)的转动角度(α)以单列矢量形式被存储并且与呈单列矢量形式的转动角度设定值(RV)逐行比较。
14.根据前述权利要求之一的方法,其特征是,当在后续图像(FB)中无法识别身体肢节(12)和/或关节点(14),针对该后续图像(FB)采用该初始图像(IB)的转动角度(α)。
15.一种用于识别人体(10)的姿势的识别装置(100),具有深度照相机装置(110)和控制单元(120),其特征是,该控制单元(120)被构造用于执行具有权利要求1至14之一的特征的方法。
CN201480057420.1A 2013-10-19 2014-10-17 人体姿势识别 Pending CN105637531A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE201310017425 DE102013017425A1 (de) 2013-10-19 2013-10-19 Verfahren für die Erkennung von Gesten eines menschlichen Körpers
DE102013017425.2 2013-10-19
PCT/EP2014/002811 WO2015055320A1 (de) 2013-10-19 2014-10-17 Erkennung von gesten eines menschlichen körpers

Publications (1)

Publication Number Publication Date
CN105637531A true CN105637531A (zh) 2016-06-01

Family

ID=51753180

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480057420.1A Pending CN105637531A (zh) 2013-10-19 2014-10-17 人体姿势识别

Country Status (5)

Country Link
US (1) US20160247016A1 (zh)
EP (1) EP3058506A1 (zh)
CN (1) CN105637531A (zh)
DE (1) DE102013017425A1 (zh)
WO (1) WO2015055320A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107087219A (zh) * 2017-02-22 2017-08-22 李海英 智能家居电视
CN108227931A (zh) * 2018-01-23 2018-06-29 北京市商汤科技开发有限公司 用于控制虚拟人物的方法、设备、系统、程序和存储介质
CN111316283A (zh) * 2017-10-31 2020-06-19 Sk电信有限公司 姿势识别方法及装置
WO2022099824A1 (zh) * 2020-11-16 2022-05-19 深圳技术大学 人体风险姿态识别方法及系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107450672B (zh) * 2017-09-19 2024-03-29 曾泓程 一种高识别率的腕式智能装置
CN110163045A (zh) 2018-06-07 2019-08-23 腾讯科技(深圳)有限公司 一种手势动作的识别方法、装置以及设备
CN109453505B (zh) * 2018-12-03 2020-05-29 浙江大学 一种基于可穿戴设备的多关节追踪方法
CN109685013B (zh) * 2018-12-25 2020-11-24 上海智臻智能网络科技股份有限公司 人体姿态识别中头部关键点的检测方法及装置
TWI772726B (zh) * 2019-12-25 2022-08-01 財團法人工業技術研究院 輔具建模方法與肢體導板機構
CN112435731B (zh) * 2020-12-16 2024-03-19 成都翡铭科技有限公司 一种判断实时姿势是否满足预设规则的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222431A (zh) * 2010-06-04 2011-10-19 微软公司 基于机器的手语翻译器
CN102915555A (zh) * 2011-08-03 2013-02-06 通用电气公司 用于裁剪三维医疗数据集的方法和系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132305A (ja) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
US8542252B2 (en) * 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
JP5881136B2 (ja) * 2010-09-27 2016-03-09 ソニー株式会社 情報処理装置及び方法、並びにプログラム
US20120150650A1 (en) * 2010-12-08 2012-06-14 Microsoft Corporation Automatic advertisement generation based on user expressed marketing terms
AU2011203028B1 (en) * 2011-06-22 2012-03-08 Microsoft Technology Licensing, Llc Fully automatic dynamic articulated model calibration
EP2680228B1 (en) * 2012-06-25 2014-11-26 Softkinetic Software Improvements in or relating to three dimensional close interactions.
KR101459445B1 (ko) * 2012-12-18 2014-11-07 현대자동차 주식회사 차량내 손목각을 이용한 사용자 인터페이스 조작 시스템 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222431A (zh) * 2010-06-04 2011-10-19 微软公司 基于机器的手语翻译器
US20110301934A1 (en) * 2010-06-04 2011-12-08 Microsoft Corporation Machine based sign language interpreter
CN102915555A (zh) * 2011-08-03 2013-02-06 通用电气公司 用于裁剪三维医疗数据集的方法和系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107087219A (zh) * 2017-02-22 2017-08-22 李海英 智能家居电视
CN107087219B (zh) * 2017-02-22 2018-04-10 罗普特(厦门)科技集团有限公司 人体姿势识别装置
CN111316283A (zh) * 2017-10-31 2020-06-19 Sk电信有限公司 姿势识别方法及装置
CN111316283B (zh) * 2017-10-31 2023-10-17 Sk电信有限公司 姿势识别方法及装置
CN108227931A (zh) * 2018-01-23 2018-06-29 北京市商汤科技开发有限公司 用于控制虚拟人物的方法、设备、系统、程序和存储介质
WO2022099824A1 (zh) * 2020-11-16 2022-05-19 深圳技术大学 人体风险姿态识别方法及系统

Also Published As

Publication number Publication date
WO2015055320A1 (de) 2015-04-23
DE102013017425A1 (de) 2015-05-07
US20160247016A1 (en) 2016-08-25
EP3058506A1 (de) 2016-08-24

Similar Documents

Publication Publication Date Title
CN105637531A (zh) 人体姿势识别
US10817795B2 (en) Handstate reconstruction based on multiple inputs
US11163361B2 (en) Calibration techniques for handstate representation modeling using neuromuscular signals
KR20200024324A (ko) 전기 임피던스 측정 배경을 사용하여 손 동작을 추적하기 위한 암밴드
CN110300542A (zh) 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
EP3035164A1 (en) Wearable sensor for tracking articulated body-parts
CA3111430A1 (en) Systems and methods for generating complementary data for visual display
KR20130027006A (ko) 최소 침습 수술 시스템에서 손 제스처 제어를 위한 방법 및 장치
US10976863B1 (en) Calibration of inertial measurement units in alignment with a skeleton model to control a computer system based on determination of orientation of an inertial measurement unit from an image of a portion of a user
KR20140015144A (ko) 최소 침습 수술 시스템에서 손 존재 검출을 위한 방법 및 시스템
KR20120115487A (ko) 원격조종 최소 침습 종속 수술 기구의 손 제어를 위한 방법 및 시스템
KR101755126B1 (ko) 움직임 구현을 위한 움직임 정보 제공 장치, 이를 이용한 움직임 정보 제공 방법 및 움직임 구현 시스템
CN110456902A (zh) 跟踪用户移动以控制计算机系统中的骨架模型
Maycock et al. Robust tracking of human hand postures for robot teaching
CN111401340A (zh) 目标对象的运动检测方法和装置
Callejas-Cuervo et al. Capture and analysis of biomechanical signals with inertial and magnetic sensors as support in physical rehabilitation processes
Richter et al. Human Climbing and Bouldering Motion Analysis: A Survey on Sensors, Motion Capture, Analysis Algorithms, Recent Advances and Applications.
US11461905B2 (en) Determining a kinematic sequence
US20220262013A1 (en) Method for improving markerless motion analysis
Vicente et al. Calibration of kinematic body sensor networks: Kinect-based gauging of data gloves “in the wild”
Luo et al. A virtual reality system for arm and hand rehabilitation
KR20220078464A (ko) 손 움직임 측정 장치
JP2014117409A (ja) 身体関節位置の計測方法および装置
Cordella et al. A stochastic algorithm for automatic hand pose and motion estimation
KR102611167B1 (ko) 온라인 움직임 교정시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160601