CN112307876B - 关节点检测方法及装置 - Google Patents
关节点检测方法及装置 Download PDFInfo
- Publication number
- CN112307876B CN112307876B CN202010685839.9A CN202010685839A CN112307876B CN 112307876 B CN112307876 B CN 112307876B CN 202010685839 A CN202010685839 A CN 202010685839A CN 112307876 B CN112307876 B CN 112307876B
- Authority
- CN
- China
- Prior art keywords
- joint
- limb segment
- human body
- limb
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000011218 segmentation Effects 0.000 claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims description 51
- 238000010586 diagram Methods 0.000 claims description 31
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 6
- 210000003414 extremity Anatomy 0.000 description 120
- 238000013459 approach Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 238000012417 linear regression Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种关节点检测方法及装置。所述方法包括:取得人体影像,并在人体影像找出多个关节点,以产生人体姿态图;在前述关节点中找出对应于躯干关节的躯干关节点;基于躯干关节点在人体姿态图中定义对应于躯干关节点的感兴趣区域,其中躯干关节点连接于人体的肢段,肢段包括多个子肢段,前述子肢段彼此通过肢段关节连接;基于感兴趣区域找出对应于前述子肢段的多个分割部位;基于前述分割部位定义特定肢段关节点;将特定肢段关节点定义为对应肢段关节,并据以更新人体姿态图。
Description
技术领域
本发明涉及一种关节点检测方法及装置,且特别涉及一种基于多层神经网络进行的关节点检测方法及装置。
背景技术
姿态检测(Pose Estimation)的主要目的为找出人体关节点并正确的连接起来,最后产生人体姿态。然而,若影像中的四肢呈现某些特定角度,使得某些部位的关节点无法被检测到的话,将可能导致此关节点无法被检测。
请参照图1A及图1B,其中图1A示出可正确检测关节点的情境,而图1B示出无法正确检测关节点的情境。目前基于深度学习(Deep Learning)与卷积神经网络(Convolutional Neural Network,CNN)开发的姿态检测主要有两种方法:由上而下(Top-Down)及由下而上(Bottom-Up),在图1A中,由于各肢段皆可清楚地被观察到,因此无论是由上而下或由下而上皆可正确地检测影像中的关节点。然而,在图1B中,由于影像中无法观察到例如左、右手肘等关节点,因而将使得由上而下或由下而上皆无法正确地检测到这些关节点。
发明内容
有鉴于此,本发明提供一种关节点检测方法及装置,其可用以解决上述技术问题。
本发明提供一种关节点检测方法,包括:取得一人体影像,并在人体影像找出多个关节点,以产生一人体姿态图,其中人体影像包含躯干关节与第一肢段;在前述关节点中找出对应于一第一躯干关节的一第一躯干关节点;在人体姿态图中定义对应于第一躯干关节点的一第一感兴趣区域,其中第一躯干关节位于人体的躯干部位中,第一躯干关节连接于人体的一第一肢段,第一肢段包括多个第一子肢段,前述第一子肢段彼此通过至少一第一肢段关节连接;基于第一感兴趣区域找出对应于前述第一子肢段的多个第一分割部位;基于前述第一分割部位定义一第一特定肢段关节点;将第一特定肢段关节点定义为对应第一肢段关节,并据以更新人体姿态图。
本发明提供一种关节点检测装置,包括存储电路及处理器。存储电路存储多个模块。处理器耦接存储电路,存取前述模块以执行下列步骤:取得一人体影像,并在人体影像找出多个关节点,以产生一人体姿态图;在前述关节点中找出对应于一第一躯干关节中的一第一躯干关节点;在人体姿态图中定义对应于第一躯干关节点的一第一感兴趣区域,其中第一躯干关节位于人体的躯干部位中,第一躯干关节连接于人体的一第一肢段,第一肢段包括多个第一子肢段,前述第一子肢段彼此通过一第一肢段关节连接;基于第一感兴趣区域找出对应于前述第一子肢段的多个第一分割部位;基于前述第一分割部位定义一第一特定肢段关节点;将第一特定肢段关节点定义为对应第一肢段关节,并据以更新人体姿态图。
基于上述,本发明的方法可在找出一个躯干关节点之后,据以定义相关的感兴趣区域,并基于此感兴趣区域找出对应于躯干关节点的肢段的子肢段的分割部位。之后,可基于这些分割部位找出特定肢段关节点,并以此特定肢段关节点作为前述肢段上的肢段关节点,进而更新人体姿态图。借此,即便原本的人体姿态图中存在被遮蔽的肢段关节(例如手肘等),本发明的方法仍可将其找出,从而改善人体关节点的检测表现。
为让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合说明书附图作详细说明如下。
附图说明
图1A示出可正确检测关节点的情境。
图1B示出无法正确检测关节点的情境。
图2是依据本发明的一实施例示出的关节点检测装置的示意图。
图3是依据本发明的一实施例示出的关节点检测方法流程图。
图4A是依据本发明的一实施例示出的人体影像及标记有关节点的人体姿态图。
图4B是依据图4A示出的在人体姿态图中标记感兴趣区域的示意图。
图4C是依据图4B示出的具不同尺寸的感兴趣区域的示意图。
图5是依据本发明的一实施例示出的人体影像图及其对应的纹理坐标图。
图6是依据本发明的一实施例示出的人体姿态图及其对应的纹理坐标图。
图7A是依据图6示出的更新后的人体姿态图。
图7B是依据图7A示出的更新后的人体姿态图。
附图标记说明:
200:关节点检测装置
202:存储电路
204:处理器
400、500:人体影像
400a、700a、700b:人体姿态图
411、621a:感兴趣区域
499、599:人体
500a、600a:纹理坐标图
511~520、611a、611b、612a、612b:分割部位
611、612:关节点
611c、612c:交集区域
611d、612d:特定肢段关节点
621b:区域
J1~J17:关节点
S310~S360:步骤
具体实施方式
请参照图2,其是依据本发明的一实施例示出的关节点检测装置的示意图。在不同的实施例中,关节点检测装置200例如是智能手机、平板电脑、个人电脑、工作站、服务器、笔记本电脑,或其他可用于执行影像处理、分析及识别等操作的电子装置,但本发明可不限于此。
如图2所示,关节点检测装置200包括存储电路202及处理器204。存储电路202例如是任意形式的固定式或可移动式随机存取存储器(Random Access Memory,RAM)、只读存储器(Read-Only Memory,ROM)、快闪存储器(Flash memory)、硬盘或其他类似装置或这些装置的组合,而可用以记录多个程序码或模块。
处理器204耦接于存储电路202,并可为一般用途处理器、特殊用途处理器、传统的处理器、数字信号处理器、多个微处理器(microprocessor)、一个或多个结合数字信号处理器核心的微处理器、控制器、微控制器、特殊应用集成电路(Application SpecificIntegrated Circuit,ASIC)、场可程序闸阵列电路(现场可编程门阵列,FieldProgrammable Gate Array,FPGA)、任何其他种类的集成电路、状态机、基于进阶精简指令集机器(Advanced RISC Machine,ARM)的处理器以及类似品。
在本发明的实施例中,处理器204可存取存储电路202中记录的模块、程序码来实现本发明提出的关节点检测方法,其细节详述如下。
请参照图3,其是依据本发明的一实施例示出的关节点检测方法流程图。本实施例的方法可由图2的关节点检测装置200执行,以下即搭配图2所示的元件说明图3各步骤的细节。
步骤S310为取得人体影像,并在人体影像找出多个关节点,以产生人体姿态图。处理器204可取得人体影像,并在人体影像找出多个关节点,以产生人体姿态图。在不同的实施例中,人体影像可以是由关节点检测装置200通过取像元件对一人体所拍摄的影像、取自于任意影像数据库或存储位置的人体影像、影片中包括人体的一帧影像,或是其他任何包括人体的影像,但可不限于此。
此外,在不同的实施例中,处理器204可采用多种方式来找出上述人体影像中人体上的多个关节点。举例而言,处理器204可基于由上而下(Top-down)的方式(例如DensePose神经网络)或由下而上(Bottom-up)(例如OpenPose神经网络)的方式,或其他类似的姿态估计神经网络,以在人体影像中找出各个关节点,并将这些关节点依人体结构连接而形成人体姿态图。
进一步地说明,目前基于深度学习(Deep Learning)与卷积神经网络(Convolutional Neural Network,CNN)开发的姿态检测主要有两种方法:由上而下(Top-Down)及由下而上(Bottom-Up)。在Top-Down的方法中,可将影像输入CNN,并通过前半段的CNN来分割出人的位置。接着,再经过后半段的CNN来抽取出每个位置的特征图(featuremap),而这些特征图最后会再输入到线性回归(Linear regression)方程式,进而计算每个人的人体关节点(称为key point)。在由上而下的方法中,则例如Facebook提出的DensePose。
在由下而上的方法(例如卡内基美隆大学提出的OpenPose)则是通过CNN在输入影像中找出有哪些关节点,接着再试图将这些关节点正确地按照每个人的位置连起来,以产生人体姿态。然而,在由上而下跟由下而上的方法中,若影像中的四肢呈现某些特定角度,使得某些部位的关节点无法被检测到的话,将可能导致此关节点无法被检测。
请参照图4A,其是依据本发明的一实施例示出的人体影像及标记有关节点的人体姿态图。如图4A所示,在处理器204取得包括人体499的人体影像400之后,可基于上述姿态估计神经网络来找出关节点J1~J17,并在人体影像400中标记并连接关节点J1~J17,以产生人体姿态图400a。
应了解的是,由于人体499的关节在人体影像400中皆未有被遮蔽的情形,故尚能通过上述方式找出关节点J1~J17。然而,若所考虑的是如图1B所示的人体影像时,上述方式可能无法顺利地将例如手肘、膝盖等易被遮蔽的肢段关节点找出。但即便如此,上述方式对于不易被遮蔽的躯干关节点(例如关节点J6、J7、J12、J13,其分别对应于人体499的右肩、左肩、右髋、左髋)仍可保证一定的检测准确性。因此,本发明可基于躯干关节点进行以下的操作,以找出关联于各躯干关节点的肢段关节点。
请再次参照图3,步骤S320为在前述关节点中找出对应于躯干关节的躯干关节点。具体来说,在步骤S320中,处理器204可在关节点J1~J17中找出对应于人体499的躯干关节的躯干关节点,其中躯干关节位于人体的躯干部位中,躯干关节连接于人体499的肢段,此肢段包括多个子肢段,且前述子肢段彼此通过至少一肢段关节连接。在本实施例中,由于通过上述姿态估计神经网络找出的各关节点J1~J17的编号(即,1~17)将会对应特定的关节,故处理器204可直接在关节点J1~J17中找出编号对应于躯干关节点的其中之一者作为所考虑的躯干关节点。在图4A中,由于对应于编号6、7、12、13的关节点J6、J7、J12、J13皆为躯干关节点,故处理器204可取出其中的任一作为所考虑的躯干关节点。
在本发明的实施例中,由于处理器204基于各躯干关节点(即,关节点J6、J7、J12、J13)所执行的操作皆相似,故以下将仅以关节点J6为例进行说明,而本领域具通常知识者应可相应推得基于其他躯干关节点(例如,关节点J7、J12、J13)所进行的操作。
在以关节点J6(其对应于右肩)作为所考虑的躯干关节点的情况下,可知其所连接的人体499的肢段例如是右臂。并且,此肢段所包括子肢段分别是右上臂及右下臂,且其可通过右手肘(即,肢段关节)连接。
接着,步骤S330为在人体姿态图中定义对应于躯干关节点的感兴趣区域(regionof interest,ROI)。具体来说,在步骤S330中,处理器204可在人体姿态图400a中定义对应于躯干关节点的感兴趣区域。
请参照图4B,其是依据图4A示出的在人体姿态图中标记感兴趣区域的示意图。在本实施例中,处理器204可以关节点J6(即,所考虑的躯干关节点)作为中央,并向外延伸具特定尺寸的区域作为感兴趣区域411。在不同的实施例中,设计者可依需求而将感兴趣区域411的尺寸定为其他的实施方式,并不限于图4B所示实施方式。在一些实施例中,处理器204亦可一次定义对应于单一躯干关节点的多个感兴趣区域。
请参照图4C,其是依据图4B示出的具不同尺寸的感兴趣区域的示意图。在图4C中,所示出的虚线框的任一者皆可作为关节点J6(即,躯干关节点)的感兴趣区域。在其他实施例中,处理器204亦可将图4C中全部的虚线框皆作为关节点J6(即,躯干关节点)的感兴趣区域,但可不限于此。
并且,在其他实施例中,感兴趣区域411亦不一定需以所考虑的躯干关节点作为中心,而可以仅是涵盖此躯干关节点的任意影像区域,但本发明可不限于此。
步骤S340为基于感兴趣区域找出对应于子肢段的多个分割部位。具体来说,在步骤S340中,处理器204可基于感兴趣区域找出对应于前述子肢段(例如右上臂及右下臂)的多个分割部位。详细而言,在处理器204先前使用姿态估计神经网络(其可包括卷积层、池化层及全连接层等)取得关节点J1~J17时,姿态估计神经网络中的卷积层可对应于一特征图(featuremap)。在此情况下,处理器204可将感兴趣区域输入至沿用上述特征图的特定神经网络(其可以是具有卷积层的神经网络,例如CNN),以由特定神经网络基于感兴趣区域找出对应于上述子肢段(例如右上臂及右下臂)的分割部位(partition)。
在一实施例中,上述特定神经网络可基于特征图产生对应于上述感兴趣区域的纹理坐标图(或称UV图),并在纹理坐标图中找出对应于子肢段的分割部位。本领域具通常知识者应可了解,纹理坐标图为3D物件表面纹理的平面表示方式,其一般可由软件应用程序自动产生及/或由使用者经编辑而产生。
请参照图5,其是依据本发明的一实施例示出的人体影像图及其对应的纹理坐标图。在本实施例中,假设处理器204是考虑人体影像500,则在处理器204使用姿态估计神经网络处理人体影像500时,姿态估计神经网络(例如DensePose神经网络)将会一并产生对应于人体影像500的纹理坐标图500a。由图5可看出,纹理坐标图500a中包括多个分割部位511~520,其可分别对应于人体599的右上臂、右下臂、右手、右大腿、右胫、左上臂、左下臂、左手、左大腿、左胫,但可不限于此。在其他实施例中,在处理器204使用姿态估计神经网络处理人体影像500时,姿态估计神经网络亦可仅产生对应于上述感兴趣区域的纹理坐标图。并且,若存在多个感兴趣区域,处理器204亦可产生对应于各感兴趣区域的纹理坐标图,但不限于此。
在此情况下,沿用上述姿态估计神经网络的特征图的特定神经网络可相应地取得纹理坐标图500a。并且,若所考虑的躯干关节点为右肩,则处理器204可基于对应的感兴趣区域在纹理坐标图500a中定义一区域,并在此区域中找出对应于右上臂、右下臂(即,右臂的子肢段)的分割部位511及512。
请参照图6,其是依据本发明的一实施例示出的人体姿态图及其对应的纹理坐标图。在本实施例中,处理器204在使用姿态估计神经网络产生人体姿态图600时,姿态估计神经网络(例如DensePose神经网络)将会一并产生对应的纹理坐标图600a。
在此情况下,沿用上述姿态估计神经网络的特征图的特定神经网络亦可相应地取得纹理坐标图600a。并且,若所考虑的躯干关节点为关节点611(即,右肩的躯干关节点),则处理器204可基于对应于关节点611的感兴趣区域621a在纹理坐标图600a中找出对应的区域621b,并在区域621b中找出对应于右上臂、右下臂(即,右臂的子肢段)的分割部位611a及611b。
接着,步骤S350为基于分割部位定义特定肢段关节点。具体来说,在步骤S350中,处理器204可基于分割部位定义特定肢段关节点。在一实施例中,处理器204可找出分割部位的交集区域,并以交集区域中的特定点作为特定肢段关节点。
以图6的分割部位611a及611b为例,处理器204可据以找出分割部位611a及611b的交集区域611c,并以交集区域611c中的特定点作为特定肢段关节点611d。在一实施例中,处理器204可以交集区域611c的中央点作为特定肢段关节点611d,但本发明可不限于此。在其他实施例中,设计者亦可依需求而从交集区域611c中选择任一点作为特定肢段关节点。在此情况下,所找出的特定肢段关节点611d可视为是通过本发明的方法所估计的右手肘(即,肢段关节)的位置。
之后,步骤S360为将特定肢段关节点定义为对应肢段关节,并据以更新人体姿态图。具体来说,在步骤S360中,处理器204可将特定肢段关节点定义为对应肢段关节,并据以更新人体姿态图。
在一实施例中,处理器204可先在人体姿态图的关节点中找出对应于肢段关节的肢段关节点。反应于找到肢段关节点,处理器204可以特定肢段关节点取代肢段关节点,以更新人体姿态图。另一方面,反应于未找到肢段关节点,处理器204可以特定肢段关节点作为肢段关节点,以更新人体姿态图。
以图6的关节点611为例,由于其对应的肢段关节为右手肘,故处理器204可在人体姿态图600的各个关节点中找出对应于右手肘的肢段关节点。在本实施例中,由于人体姿态图600可能原本就未包括对应于右手肘的肢段关节点(即,未找到肢段关节点),故处理器204可直接以特定肢段关节点611d作为对应于右手肘的肢段关节点,进而更新人体姿态图600。在其他实施例中,若所考虑的人体姿态图(例如图4A的人体姿态图400a)原本已包括对应于右手肘的肢段关节点(例如图4A的关节点J8),则处理器204可在找到肢段关节点之后,将所求得的特定肢段关节点取代此肢段关节点,以更新人体姿态图。
请参照图7A,其是依据图6示出的更新后的人体姿态图。如图7A所示,在以特定肢段关节点611d作为对应于右手肘的肢段关节点之后,图6的人体姿态图600可被更新为如图7A所示的人体姿态图700a(其标示有对应于右手肘的特定肢段关节点611d)。
由上可知,本发明的方法可在找出一个躯干关节点之后,据以定义相关的感兴趣区域,并基于此感兴趣区域于纹理坐标图中找出对应于躯干关节点的肢段的子肢段的分割部位。之后,可基于这些分割部位找出特定肢段关节点,并以此特定肢段关节点作为前述肢段上的肢段关节点,进而更新人体姿态图。借此,即便原本的人体姿态图中存在被遮蔽的肢段关节(例如手肘等),本发明的方法仍可将其找出,从而改善人体姿态的检测表现。
此外,虽然以上仅基于一个躯干关节点进行说明,但本发明的方法亦可对其他的躯干关节点执行同样的操作,以找出对应的肢段关节。
举例而言,在产生图7A的人体姿态图700a之后,处理器204可再以图6的关节点612作为所考虑的躯干关节点(即,左肩的躯干关节点)。在此情况下,处理器204可基于对应于关节点612的感兴趣区域(未示出)在纹理坐标图600a中找出对应的区域,并在此区域中找出对应于左上臂、左下臂(即,左臂的子肢段)的分割部位612a及612b。
之后,处理器204可据以找出分割部位612a及612b的交集区域612c,并以交集区域612c中的特定点(例如中央点)作为特定肢段关节点612d。在此情况下,所找出的特定肢段关节点612d可视为是通过本发明的方法所估计的左手肘的肢段关节的位置。
并且,由于关节点612对应的肢段关节为左手肘,故处理器204可在人体姿态图600的各个关节点中找出对应于左手肘的肢段关节点。在本实施例中,由于人体姿态图600可能原本就未包括对应于左手肘的肢段关节点,故处理器204可直接以特定肢段关节点612d作为对应于左手肘的肢段关节点,进而更新人体姿态图700a。
请参照图7B,其是依据图7A示出的更新后的人体姿态图。如图7B所示,在以特定肢段关节点612d作为对应于左手肘的肢段关节点之后,图7A的人体姿态图700a可被更新为如图7B所示的人体姿态图700b(其标示有对应于左手肘的特定肢段关节点612d)。
在一实施例中,若处理器204因感兴趣区域的尺寸过小或形状不合适而导致无法基于感兴趣区域找出对应于子肢段的多个分割部位(即,无法成功执行步骤S340),则处理器204可通过扩大、旋转等方式来调整感兴趣区域,并基于调整后的感兴趣区域再次尝试找出对应于子肢段的多个分割部位。
在其他实施例中,处理器204亦可对单一个躯干关节点定义多个感兴趣区域,并尝试基于各感兴趣区域找出对应于子肢段的多个分割部位,进而基于各感兴趣区域对应的分割部位找出对应于各感兴趣区域的特定肢段关节点。之后,处理器204可再将对应于各感兴趣区域的特定肢段关节点整合为单一个特定肢段关节点,并以此特定肢段关节点作为更新人体姿态图的依据。
应了解的是,无论所考虑的人体影像中是否存在被遮蔽的肢段关节点,本发明所提出的方法都可用于找出关联于躯干关节点的特定肢段关节点,并适应性地以所找出的特定肢段关节点取代原本的肢段关节点。
以图4A为例,虽其中的人体影像400未有被遮蔽的关节点,但本发明的装置及方法仍可基于人体影像400、人体姿态图400a而找出对应于关节点J8、J9、J14、J15等肢段关节点的特定肢段关节点,并以这些特定肢段关节点将其取代,以更新人体姿态图400a。
再以图5为例,虽其中的人体影像500同样未有被遮蔽的关节点,但本发明的装置及方法仍可基于人体影像500及其对应的人体姿态图(未示出)而找出对应于各肢段关节点(例如双肘及双膝)的特定肢段关节点,并以这些特定肢段关节点将其取代,以更新人体姿态图。
另外,再以图6为例,虽其中存在被遮蔽的肢段关节点,但本发明的装置及方法仍可基于人体姿态图600而找出对应于各肢段关节点(例如双肘及双膝)的特定肢段关节点,并将这些特定肢段关节点作为肢段关节点,以更新人体姿态图。
综上所述,本发明的方法及装置可通过姿态估计神经网络找出人体影像中的多个关节点,并从中取得躯干关节点。之后,本发明可基于一个躯干关节点定义相关的感兴趣区域,并通过特定神经网络(其沿用姿态估计神经网络的特征图)来基于此感兴趣区域找出对应于上述躯干关节点的肢段的子肢段的分割部位。基于这些分割部位,本发明的方法可再找出特定肢段关节点,并以此特定肢段关节点作为前述肢段上的肢段关节点,进而更新人体姿态图。借此,即便原本的人体姿态图中存在被遮蔽的肢段关节(例如手肘等),本发明的方法仍可将其找出,从而改善人体姿态的检测表现。
从另一观点而言,本发明可视为包括两个阶段。在第一阶段中,可由姿态估计神经网络(其例如是以Top-Down或Bottom-Up的作法所实现的CNN)检测人体影像中的关节点。借此,可在第一阶段中得到初步的人体关节点,而本发明可在这些关节点中找出例如左肩、右肩、左髋、右髋等躯干关节点,并个别产生一或多个感兴趣区域。
在第二阶段中,本发明可以第一阶段找到的感兴趣区域作为基础,通过特定神经网络(其例如是以Bottom-Up的作法实的CNN)建构的人体部位分割检测来找出位于四肢上的分割部位,并可基于位于四肢上的分割部位来还原与校正出四肢上的肢段关节点。并且,为了避免处理过多的感兴趣区域,本发明可沿用第一阶段的CNN在计算时所得到的特征图,再接上第二阶段的CNN来找肢段关节点。如此一来,相较于需让每个感兴趣区域都经过较多层卷积层来计算特征图的作法,本发明只需要在第二阶段上采用较轻量的卷积层,便能更有效率地针对每个感兴趣区域中的四肢来进行分割。接着,本发明可通过分割部位来分析出四肢上的肢段关节点。之后,本发明可在将第二阶段找出的肢段关节点与第一阶段的人体姿态图作结合后,通过线性回归分析等方式得到更完整的人体关节点及人体姿态图,从而有利于后续进行的相关姿态分析操作。
虽然本发明已以实施例公开如上,然其并非用以限定本发明,任何所属技术领域中技术人员,在不脱离本发明的构思和范围内,当可作些许的变动与润饰,故本发明的保护范围当视权利要求所界定者为准。
Claims (16)
1.一种关节点检测方法,其特征在于,包括:
取得一人体影像,并在该人体影像找出多个关节点,以产生一人体姿态图,其中该人体影像包含一躯干关节与一第一肢段;
在所述多个关节点中找出对应于一第一躯干关节的一第一躯干关节点,其中,该第一躯干关节位于该人体影像的躯干部位,且该第一躯干关节连接于该第一肢段,该第一肢段包括多个第一子肢段,所述多个第一子肢段彼此通过至少一第一肢段关节连接;
在该人体姿态图中定义对应于该第一躯干关节点的一第一感兴趣区域;
基于该第一感兴趣区域找出对应于所述多个第一子肢段的多个第一分割部位;
找出所述多个第一分割部位的一交集区域;
以该交集区域中的一特定点作为第一特定肢段关节点;以及
将该第一特定肢段关节点定义为对应该第一肢段关节,并据以更新该人体姿态图。
2.如权利要求1所述的方法,其特征在于,在该人体影像找出所述多个关节点,以产生该人体姿态图的步骤包括:
将该人体影像输入一姿态估计神经网络,以由该姿态估计神经网络找出该人体影像上的所述多个关节点,并将所述多个关节点连接而形成该人体姿态图。
3.如权利要求2所述的方法,其特征在于,该姿态估计神经网络是基于由上而下或由下而上方式设计。
4.如权利要求2或3所述的方法,其特征在于,该姿态估计神经网络为一DensePose神经网络或一OpenPose神经网络。
5.如权利要求2所述的方法,其特征在于,该第一躯干关节点位于该第一感兴趣区域的中央。
6.如权利要求2所述的方法,其特征在于,该姿态估计神经网络具有一卷积层,该卷积层对应于一特征图,且基于该第一感兴趣区域找出对应于所述多个第一子肢段的所述多个第一分割部位的步骤包括:
将该第一感兴趣区域输入至沿用该特征图的一特定神经网络,以由该特定神经网络基于该第一感兴趣区域找出对应于所述多个第一子肢段的所述多个第一分割部位。
7.如权利要求6所述的方法,其特征在于,该特定神经网络具有一卷积层,且由该特定神经网络基于该第一感兴趣区域找出对应于所述多个第一子肢段的所述多个第一分割部位的步骤包括:
由该特定神经网络基于该特征图产生对应于该第一感兴趣区域的一纹理坐标图;以及
由该特定神经网络在该纹理坐标图中找出对应于所述多个第一子肢段的所述多个第一分割部位。
8.如权利要求6所述的方法,其特征在于,该特定神经网络为包括一卷积层的卷积神经网络。
9.如权利要求1所述的方法,其特征在于,该交集区域中的该特定点为该交集区域的一中心点。
10.如权利要求1所述的方法,其特征在于,调整该第一感兴趣区域的步骤包括扩大或旋转该第一感兴趣区域。
11.如权利要求1所述的方法,其特征在于,将该第一特定肢段关节点定义为对应该第一肢段关节,并据以更新该人体姿态图的步骤包括:
在该人体姿态图的所述多个关节点中找出对应于该第一肢段关节的一第一肢段关节点;
反应于找到该第一肢段关节点,以该第一特定肢段关节点取代该第一肢段关节点,以更新该人体姿态图;以及
反应于未找到该第一肢段关节点,以该第一特定肢段关节点作为该第一肢段关节点,以更新该人体姿态图。
12.一种关节点检测装置,其特征在于,包括:
一存储电路,存储一程序码;以及
一处理器,耦接该存储电路,存取该程序码以执行下列步骤:
取得一人体影像,并在该人体影像找出多个关节点,以产生一人体姿态图,其中该人体影像包含一躯干关节与一第一肢段;
在所述多个关节点中找出对应一第一躯干关节的一第一躯干关节点;
在该人体姿态图中定义对应于该第一躯干关节点的一第一感兴趣区域,其中,该第一躯干关节位于该人体影像的躯干部位,且该第一躯干关节连接于该第一肢段,该第一肢段包括多个第一子肢段,所述多个第一子肢段彼此通过至少一第一肢段关节连接;
基于该第一感兴趣区域找出对应于所述多个第一子肢段的多个第一分割部位;
找出所述多个第一分割部位的一交集区域;
以该交集区域中的一特定点作为第一特定肢段关节点;以及
将该第一特定肢段关节点定义为对应该第一肢段关节,并据以更新该人体姿态图。
13.如权利要求12所述的装置,其特征在于,该处理器经配置以:
将该人体影像输入一姿态估计神经网络,以由该姿态估计神经网络找出该人体影像上的所述多个关节点,并将所述多个关节点连接而形成该人体姿态图。
14.如权利要求13所述的装置,其特征在于,该姿态估计神经网络具有一卷积层,该卷积层对应于一特征图,且该处理器经配置以:
将该第一感兴趣区域输入至沿用该特征图的一特定神经网络,以由该特定神经网络基于该第一感兴趣区域找出对应于所述多个第一子肢段的所述多个第一分割部位。
15.如权利要求14所述的装置,其特征在于,该特定神经网络具有一卷积层,且该处理器经配置以:
由该特定神经网络基于该特征图产生对应于该第一感兴趣区域的一纹理坐标图;以及
由该特定神经网络在该纹理坐标图中找出对应于所述多个第一子肢段的所述多个第一分割部位。
16.如权利要求12所述的装置,其特征在于,该处理器经配置以:
在该人体姿态图的所述多个关节点中找出对应于该第一肢段关节的一第一肢段关节点;
反应于找到该第一肢段关节点,以该第一特定肢段关节点取代该第一肢段关节点,以更新该人体姿态图;以及
反应于未找到该第一肢段关节点,以该第一特定肢段关节点作为该第一肢段关节点,以更新该人体姿态图。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW108126311A TWI704499B (zh) | 2019-07-25 | 2019-07-25 | 關節點偵測方法及裝置 |
TW108126311 | 2019-07-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112307876A CN112307876A (zh) | 2021-02-02 |
CN112307876B true CN112307876B (zh) | 2024-01-26 |
Family
ID=73644140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010685839.9A Active CN112307876B (zh) | 2019-07-25 | 2020-07-16 | 关节点检测方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11335025B2 (zh) |
CN (1) | CN112307876B (zh) |
TW (1) | TWI704499B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11430564B2 (en) * | 2019-11-27 | 2022-08-30 | Shanghai United Imaging Intelligence Co., Ltd. | Personalized patient positioning, verification and treatment |
EP4020391A1 (en) | 2020-12-24 | 2022-06-29 | Applications Mobiles Overview Inc. | Method and system for automatic characterization of a three-dimensional (3d) point cloud |
CN113177442B (zh) * | 2021-04-12 | 2024-01-30 | 广东省科学院智能制造研究所 | 一种基于边缘计算的人体行为检测方法及装置 |
US20230085518A1 (en) * | 2021-09-14 | 2023-03-16 | Mediatek Inc. | Video processing method for detecting location, pixels, and skeleton of object, and associated video processing circuit |
KR20230076644A (ko) * | 2021-11-24 | 2023-05-31 | 박재현 | 경량화된 자세 추정 모델 제공 장치 및 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103839040A (zh) * | 2012-11-27 | 2014-06-04 | 株式会社理光 | 基于深度图像的手势识别方法和装置 |
WO2017133009A1 (zh) * | 2016-02-04 | 2017-08-10 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN107219925A (zh) * | 2017-05-27 | 2017-09-29 | 成都通甲优博科技有限责任公司 | 姿势检测方法、装置及服务器 |
CN109389041A (zh) * | 2018-09-07 | 2019-02-26 | 南京航空航天大学 | 一种基于关节点特征的跌倒检测方法 |
CN109800676A (zh) * | 2018-12-29 | 2019-05-24 | 上海易维视科技股份有限公司 | 基于深度信息的手势识别方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3068301A4 (en) | 2013-11-12 | 2017-07-12 | Highland Instruments, Inc. | Analysis suite |
US10447972B2 (en) * | 2016-07-28 | 2019-10-15 | Chigru Innovations (OPC) Private Limited | Infant monitoring system |
EP3494428A4 (en) | 2016-08-02 | 2020-04-08 | Atlas5D, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING PEOPLE AND / OR IDENTIFYING AND QUANTIFYING PAIN, FATIGUE, MOOD AND INTENTION WITH PRIVACY PROTECTION |
US10657709B2 (en) * | 2017-10-23 | 2020-05-19 | Fit3D, Inc. | Generation of body models and measurements |
TWI664550B (zh) * | 2018-07-26 | 2019-07-01 | 華夏學校財團法人華夏科技大學 | 高爾夫球運動員揮桿姿勢檢測系統 |
CN110443206A (zh) * | 2019-08-07 | 2019-11-12 | 北京邮电大学 | 一种基于Wi-Fi信号的人体姿态图像生成方法和装置 |
-
2019
- 2019-07-25 TW TW108126311A patent/TWI704499B/zh active
-
2020
- 2020-07-16 CN CN202010685839.9A patent/CN112307876B/zh active Active
- 2020-07-23 US US16/937,469 patent/US11335025B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103839040A (zh) * | 2012-11-27 | 2014-06-04 | 株式会社理光 | 基于深度图像的手势识别方法和装置 |
WO2017133009A1 (zh) * | 2016-02-04 | 2017-08-10 | 广州新节奏智能科技有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN107219925A (zh) * | 2017-05-27 | 2017-09-29 | 成都通甲优博科技有限责任公司 | 姿势检测方法、装置及服务器 |
CN109389041A (zh) * | 2018-09-07 | 2019-02-26 | 南京航空航天大学 | 一种基于关节点特征的跌倒检测方法 |
CN109800676A (zh) * | 2018-12-29 | 2019-05-24 | 上海易维视科技股份有限公司 | 基于深度信息的手势识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
《Saliency-guided improvement for hand posture detection and recognition》;Yuelong Chuang;《Neurocomputing》;全文 * |
《基于时空权重姿态运动特征的人体骨架行为识别研究 》;丁重阳;《计算机学报》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112307876A (zh) | 2021-02-02 |
US11335025B2 (en) | 2022-05-17 |
US20210027484A1 (en) | 2021-01-28 |
TWI704499B (zh) | 2020-09-11 |
TW202105237A (zh) | 2021-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112307876B (zh) | 关节点检测方法及装置 | |
CN109448090B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN106156692B (zh) | 一种用于人脸边缘特征点定位的方法及装置 | |
US11157796B2 (en) | Joint position estimation device, joint position estimation method, and joint position estimation program | |
CN111046717A (zh) | 眼底图像黄斑中心定位方法、装置、电子设备及存储介质 | |
CN109325907B (zh) | 图像美化处理方法、装置及系统 | |
US20210197384A1 (en) | Robot control method and apparatus and robot using the same | |
CN111480164A (zh) | 头部姿势和分心估计 | |
CN107766851A (zh) | 一种人脸关键点定位方法及定位装置 | |
JP2023524252A (ja) | 生成的非線形人間形状モデル | |
CN113096249A (zh) | 训练顶点重建模型的方法、图像重建方法及电子设备 | |
CN111402360A (zh) | 生成人体模型的方法、装置、计算机设备和存储介质 | |
CN114549765A (zh) | 三维重建方法及装置、计算机可存储介质 | |
CN107403440A (zh) | 用于确定对象的姿态的方法和装置 | |
JP2015219868A (ja) | 情報処理装置、情報処理方法、プログラム | |
US9977993B2 (en) | System and method for constructing a statistical shape model | |
CN108564058B (zh) | 一种图像处理方法、装置及计算机可读存储介质 | |
JP6368421B1 (ja) | 立体を認識するためのプログラム、システム、電子装置、及び方法 | |
CN111339969B (zh) | 人体姿势估计方法、装置、设备及存储介质 | |
KR20220156062A (ko) | 역기구학에 기반한 관절 회전 추론들 | |
CN115049764B (zh) | Smpl参数预测模型的训练方法、装置、设备及介质 | |
Vasconcelos et al. | Human motion segmentation using active shape models | |
US7653518B2 (en) | System and method for generating matched contour profiles | |
JP6894398B2 (ja) | オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム | |
Svärm et al. | Structure from motion estimation with positional cues |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |