CN112069943A - 基于自顶向下框架的在线多人姿态估计与跟踪方法 - Google Patents

基于自顶向下框架的在线多人姿态估计与跟踪方法 Download PDF

Info

Publication number
CN112069943A
CN112069943A CN202010860855.7A CN202010860855A CN112069943A CN 112069943 A CN112069943 A CN 112069943A CN 202010860855 A CN202010860855 A CN 202010860855A CN 112069943 A CN112069943 A CN 112069943A
Authority
CN
China
Prior art keywords
posture
network
tracking
human body
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010860855.7A
Other languages
English (en)
Inventor
王鹏
张云绚
李晓艳
许韫韬
邸若海
郭嘉
符惠桐
闫芬婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Technological University
Original Assignee
Xian Technological University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Technological University filed Critical Xian Technological University
Priority to CN202010860855.7A priority Critical patent/CN112069943A/zh
Publication of CN112069943A publication Critical patent/CN112069943A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于自顶向下框架的在线多人姿态估计与跟踪方法,实现视频中实时人体姿态估计与在线多人姿态跟踪。首先通过单阶段目标检测网络提取人体提议框,并结合特征金字塔结构加入深度可分离卷积,改善模型提取小目标人体提议框的精度与模型实时性;然后,将人体提议框送入姿态估计网络进行关节点检测,按照人体关节点检测的不同难易程度,结合上下文语义信息与在线难例挖掘算法完成困难关节点检测;最后,将人体姿态信息送入姿态跟踪网络中,基于ORB角点检测与匹配算法计算帧间姿态距离,构建并优化姿态流,完成实时多人姿态跟踪。经试验验证,该方法能够实时、准确地完成多人姿态估计与姿态跟踪,多目标跟踪准确度(MOTA)指标为59.1%,姿态跟踪帧率达到28帧/秒。

Description

基于自顶向下框架的在线多人姿态估计与跟踪方法
技术领域
本发明涉及图像处理与模式识别领域,特别是一种基于自顶向下框架的在线多人姿态估计与跟踪方法。
背景技术
近年来,在单人姿态估计方法基础上,室外多人姿态估计,作为人体行为识别、步态识别、行人重识别等课题的研究基础,逐渐成为当前的研究热点,广泛应用于人机交互、无人驾驶、临床医学、体感游戏设计、智能安防监控等领域。人体关节点跟踪作为一个新兴的研究领域,其目的是为视频帧中多人姿态的每个关节点分配唯一实例ID的任务。准确估计人体关节点轨迹,完成姿态跟踪对于上述课题研究非常重要。
姿态估计与跟踪常用的算法是基于自顶向下框架,首先通过目标检测器获取边界框信息,然后通过姿态估计方法对每个检测框单独进行关节点检测,具有准确率高的优点。其Pose Track挑战赛数据集中,多目标跟踪精度(MOTA)指标对模型性能要求更为严格。
目前,传统姿态估计与跟踪方法中,基于自顶向下的姿态估计方法中单人姿态估计网络准确率严重依赖目标检测结果,即受到了目标检测任务的制约;室外多人姿态估计仍面临着如场景复杂、拥挤产生的肢体遮挡以及关节点识别准确率等挑战。多目标跟踪也面临着如:帧退化、截断、遮挡,受到光照、衣服颜色、视角,并且依赖于单帧姿态估计结果等问题,其模型实时性与鲁棒性有待提高。
发明内容
有鉴于此,本发明提供一种基于自顶向下框架的多人姿态估计与跟踪方法,以克服现有姿态估计与跟踪技术存在的关节点识别准确率低,模型实时性差,鲁棒性不强的问题。
为了达到本发明的目的,本发明提出的方案如下:一种基于自顶向下框架的在线多人姿态估计与跟踪方法,包括如下步骤:
步骤1、图像预处理阶段:构建数据集;
步骤2、基于单阶段目标检测模型的人体提议框提取阶段:基于单阶段目标检测模型,结合特征金字塔原理实现小目标检测,并加入深度可分离卷积。
步骤3、基于自顶向下框架的人体姿态估计阶段:构建基于对称空间变换网络的姿态估计模型,结合上下文语义信息与在线难例挖掘算法,识别困难关节点;
步骤4、基于多目标跟踪中相关性分析方法的多人姿态跟踪阶段:基于ORB角点检测与匹配算法计算帧间姿态距离,计算相邻帧中的边界框之间的相似性,构建并优化姿态流。
上述步骤1包括如下步骤:
步骤101、人为收集多人姿态的图像;
步骤102、利用算法进行数据集扩增;
步骤103、采用软标注软件生成适合的数据集格式。
上述步骤2包括如下步骤:
步骤201、构建基于Darknet-53网络的目标检测模型主干网络,加入跳远连接设计,构建更深的网络层数保证检测精度;
步骤202、检测器在特征融合过程中借鉴FPN网络的多特征融合方式,即特征金字塔原理,卷积输出不同大小的先验框以适应不同尺度目标的检测;
步骤203、在网络中加入深度可分离卷积,首先进行深度卷积,即对每个通道分别进行卷积,输出通道属性,然后采用卷积核对所有通道再次卷积。
上述步骤3包括如下步骤:
步骤301、姿态估计模型骨干网络为ResNets网络,以每个阶段的最后残差块的特征激活输出,单人姿态估计网络基于特征金字塔结构;
步骤302、构建对称空间变换网络,对人体提议框进行仿射变换,求取参数,并对姿态估计结果进行空间逆变换,调节目标检测器定位精度;
步骤303、结合网络深层的上下文语义信息,模型训练中加入在线难例挖掘算法,改变网络对困难样本的关注度,完成人体困难关节点识别。
步骤304、计算同一帧中两个姿态之间的距离,剔除冗余姿态。
上述步骤4包括如下步骤:
步骤401、采用ORB角点匹配算法计算相邻帧中指向同一个人体姿态的概率,即计算帧间姿态距离;
步骤402、连接不同帧之间同一个人的姿态,构建姿态流信息;
步骤403、计算姿态流置信度得分总和,求解此类动态规划问题;
步骤404、以姿态流为基本单位,进行非极大值抑制。
与现有技术相比,本发明的优点:
1)本发明的方法中,首先对称空间变换网络改善人体提议框的定位精度;其次通过特征金字塔网络结合在线难例挖掘算法,提高了人体姿态估计模型关节点识别准确率;
2)本发明通过在姿态估计网络结构中加入深度可分离卷积,结合1X 1卷积结构设计,有效减少了模型的参数规模,改善了模型的实时性;
3)本发明基于自顶向下框架,通过分析前后多帧姿态估计结果共享时间信息,基于ORB角点匹配方法计算帧间姿态距离,有效提高了帧间关节点相似性计算速度与多目标跟踪准确率,姿态跟踪的MOTA指标为59.1%,姿态跟踪帧率达到28帧/秒,有效的保证本发明方法的鲁棒性的。
附图说明
图1为本发明-实施例的方法流程图;
图2为本发明-单人姿态估计网络结构图;
图3为本发明-夜间场景下各模型姿态估计结果图;
图4为本发明-小目标场景下各模型姿态估计结果图;
图5为本发明-多目标尺度变化场景下各模型姿态估计结果图;
图6为本发明-目标部分遮挡场景下各模型姿态估计结果图;
图7为本发明-多目标姿态跟踪帧序列结果图。
具体实施方式
下面通过具体实施例和附图对本发明作进一步详细说明。
参见图1,本发明提供一种基于自顶向下框架的在线多人姿态估计与跟踪方法,包括如下步骤:
步骤1、图像预处理:
主要包括数据归一化处理以及数据增强处理,其中,归一化将每一个维度的特征都处理为符合标准正态分布;图像剪切即将训练集中所有图像剪切为统一大小;随机旋转包括图像翻转、旋转两种;尺度缩放主要进行图像尺寸放大、缩小等变化。构建得到图像数据集。
步骤2、基于单阶段目标检测模型的人体提议框提取
人体目标检测器基于Darknet-53(含有53个卷积层)网络,其借鉴了残差网络(Residual Network)的做法,在一些层之间设置了跳远连接(Shortcut Connections),从网络结构上看,多个重复的残差块。每个残差块有两个卷积层和一个跳远连接,实现了53层的卷积网络,提高目标检测精度。基于特征金字塔的多尺度融合结构能够确保网络每一层都有合适的分辨率与语义信息。
具体包括以下步骤:
步骤201、构建基于Darknet-53网络的目标检测模型主干网络,加入跳远连接设计,构建更深的网络层数保证检测精度;
步骤202、检测器在特征融合过程中借鉴FPN网络的多特征融合方式,即特征金字塔原理,卷积输出不同大小的先验框以适应不同尺度目标的检测,实现小目标检测;
步骤203、在网络中加入深度可分离卷积,首先进行深度卷积,即对每个通道分别进行卷积,输出通道属性,然后采用卷积核对所有通道再次卷积。
步骤3、基于自顶向下框架的人体姿态估计网络的关节点估计基于特征金字塔结构,见图2所示,并在上采样过程中,加入1x1卷积核,然后再进行逐像素相加求和,1x1卷积可以起到一个改变输出维数的作用。瓶颈模块设计能够有效减少网络参数,匹配输入输出维度。
具体包括如下步骤:
步骤301、姿态估计模型骨干网络为ResNets网络,以每个阶段的最后残差块的特征激活输出;
步骤302、构建对称空间变换网络,对人体提议框进行仿射变换,求取参数,并对姿态估计结果进行空间逆变换,调节目标检测器定位精度;
步骤303、模型训练中加入在线难例挖掘算法,改变网络对困难样本的关注度,并结合网络深层的语义信息完成人体困难关节点识别。
步骤304、计算同一帧中两个姿态之间的距离,实现冗余姿态的剔除。
步骤4、基于多目标跟踪中相关性分析方法的多人姿态跟踪,是基于ORB角点检测与匹配算法计算帧间姿态距离,计算相邻帧中的边界框之间的相似性,构建并优化姿态流,得到多人运动轨迹。
具体包括如下步骤:
步骤401、采用ORB角点匹配算法计算相邻帧中指向同一个人体姿态的概率,即计算帧间姿态距离;
步骤402、连接不同帧之间同一个人的姿态,构建姿态流信息;
步骤403、计算姿态流置信度得分总和,通过求解此类动态规划问题,获得最优姿态流;
步骤404、以姿态流为基本单位,进行非极大值抑制,剔除冗余姿态并减少单帧图像中易出现的时间-空间信息错误等问题。
本发明通过ORB角点匹配算法计算相邻帧中指向同一个人体姿态的概率。ORB角点检测算法在FAST角点检测基础上通过加入特征金字塔、质心标定等方法解决了FAST角点检测算法不具有尺度不变性和旋转不变性的问题。
Oriented FAST通过灰度质心法添加了一个方向。灰度质心法假设角点的中心与质心存在着一个偏移,从中心O指向质心C的向量可以用于表示方向,连接图像块的几何中心O质心C,得到一个方向向量
Figure BDA0002648034740000051
即FAST特征点的方向.使得Oriented FAST具有了旋转不变性。
θ=atan2(m01,m10) (2)
其中,I(x,y)为图像中某一像素点,m01=∑x,yyI(x,y)是像素坐标y的加权总和,m10=∑x,yxI(x,y)是像素坐标x的加权总和。
构建姿态流的过程就是将不同帧之间同一个人的姿态连接起来,主要包括两个部分:首先构建姿态候选集,其次完成姿态候选集的优化。即将多帧连续图像中帧间距离得分小于一定阈值的人体姿态构成姿态流,作为基本单元进行姿态非极大值抑制处理,剔除冗余姿态并将不相关的姿态流重新连接,获得最优姿态流。
本文设计模型与目前领先的姿态估计模型性能在2017COCO test-dev数据集评估结果对比如表1所示:
表1各姿态估计模型性能对比表
Figure BDA0002648034740000052
本发明在采集视频帧中姿态跟踪结构见图7所示,PoseTrack Challenge验证集中任务3的结果见表2所示。
表2各模型姿态跟踪(MOTA)对比表
Figure BDA0002648034740000061
本发明以测试集中图像以及个人收集图像展示模型在不同场景下的性能,为更好体现模型性能,与目前流行的两种姿态估计模型进行对比。
图3、图4是在复杂环境下的夜间场景下以及小目标的情况下对人体姿态估计的对比图,可以看到关节点识别准确率有所提高。
图5、图6体现了在多目标尺度变化的场景下模型姿态估计结果表现良好,并且在目标部分遮挡的情况依然能进行人体姿态估计(图6所示),说明了本发明方法具有很强的鲁棒性。
图3(a)、图4(a)、图5(a)、图6(a)为原始图像,图3(b)、图4(b)、图5(b)、图6(b)为OpenPose模型处理结果图,图3(c)、图4(c)、图5(c)、图6(c)为RMPE模型处理结果图,图3(d)、图4(d)、图5(d)、图6(d)为本申请发明模型实验结果达到良好效果。
图7是对多目标下的姿态跟踪帧序列表示,体现了本发明提高了关节点识别准确率、模型实时性差的问题。
本发明提出的基于自顶向下框架的在线多人姿态估计与跟踪方法,实现室内外多种场景下运动目标的检测、姿态识别与目标跟踪。通过改进模型对小目标的检测准确率、提取人体提议框的能力、不同难易程度关节点的定位准确率以及多目标跟踪实时性等,整个姿态识别与跟踪模型在实验中均取得了良好的效果与性能。
以上应用了具体个例对本发明进行阐述,只是用于帮助理解本发明,并不用以限制本发明。对于本发明所属技术领域的技术人员,依据本发明的思想,还可以做出若干简单推演、变形或替换。

Claims (5)

1.一种基于自顶向下框架的在线多人姿态估计与跟踪方法,其特征在于,包括如下步骤:
步骤1、图像预处理阶段:构建数据集;
步骤2、基于单阶段目标检测模型的人体提议框提取阶段:基于单阶段目标检测模型,结合特征金字塔原理实现小目标检测,并加入深度可分离卷积。
步骤3、基于自顶向下框架的人体姿态估计阶段:构建基于对称空间变换网络的姿态估计模型,结合上下文语义信息与在线难例挖掘算法,识别困难关节点;
步骤4、基于多目标跟踪中相关性分析方法的多人姿态跟踪阶段:基于ORB角点检测与匹配算法计算帧间姿态距离,计算相邻帧中的边界框之间的相似性,构建并优化姿态流。
2.根据权利要求1所述基于自顶向下框架的多人姿态估计与跟踪方法,其特征在于,所述步骤1包括如下步骤:
步骤101、人为收集多人姿态的图像;
步骤102、利用算法进行数据集扩增;
步骤103、采用软标注软件生成适合的数据集格式。
3.根据权利要求1或2所述基于自顶向下框架的多人姿态估计与跟踪方法,其特征在于,所述步骤2包括如下步骤:
步骤201、构建基于Darknet-53网络的目标检测模型主干网络,加入跳远连接设计,构建更深的网络层数保证检测精度;
步骤202、检测器在特征融合过程中借鉴FPN网络的多特征融合方式,即特征金字塔原理,卷积输出不同大小的先验框以适应不同尺度目标的检测;
步骤203、在网络中加入深度可分离卷积,首先进行深度卷积,即对每个通道分别进行卷积,输出通道属性,然后采用卷积核对所有通道再次卷积。
4.根据权利要求3所述基于自顶向下框架的人体姿态估计,其特征在于,所述步骤3包括如下步骤:
步骤301、姿态估计模型骨干网络为ResNets网络,以每个阶段的最后残差块的特征激活输出;
步骤302、构建对称空间变换网络,对人体提议框进行仿射变换,求取参数,并对姿态估计结果进行空间逆变换,调节目标检测器定位精度;
步骤303、模型训练中加入在线难例挖掘算法,改变网络对困难样本的关注度,并结合网络深层的语义信息完成人体困难关节点识别。
步骤304、计算同一帧中两个姿态之间的距离,剔除冗余姿态。
5.根据权利要求4所述基于多目标跟踪中相关性分析方法的多人姿态跟踪方法,其特征在于,所述步骤4包括如下步骤:
步骤401、采用ORB角点匹配算法计算相邻帧中指向同一个人体姿态的概率,即计算帧间姿态距离;
步骤402、连接不同帧之间同一个人的姿态,构建姿态流信息;
步骤403、计算姿态流置信度得分总和,求解此类动态规划问题;
步骤404、以姿态流为基本单位,进行非极大值抑制。
CN202010860855.7A 2020-08-25 2020-08-25 基于自顶向下框架的在线多人姿态估计与跟踪方法 Pending CN112069943A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010860855.7A CN112069943A (zh) 2020-08-25 2020-08-25 基于自顶向下框架的在线多人姿态估计与跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010860855.7A CN112069943A (zh) 2020-08-25 2020-08-25 基于自顶向下框架的在线多人姿态估计与跟踪方法

Publications (1)

Publication Number Publication Date
CN112069943A true CN112069943A (zh) 2020-12-11

Family

ID=73659240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010860855.7A Pending CN112069943A (zh) 2020-08-25 2020-08-25 基于自顶向下框架的在线多人姿态估计与跟踪方法

Country Status (1)

Country Link
CN (1) CN112069943A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516012A (zh) * 2021-04-09 2021-10-19 湖北工业大学 一种基于多层级特征融合的行人重识别方法及系统
CN113850221A (zh) * 2021-09-30 2021-12-28 北京航空航天大学 一种基于关键点筛选的姿态跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN110147743A (zh) * 2019-05-08 2019-08-20 中国石油大学(华东) 一种复杂场景下的实时在线行人分析与计数系统及方法
CN110569723A (zh) * 2019-08-02 2019-12-13 西安工业大学 一种结合特征融合与模型更新的目标跟踪方法
CN111274954A (zh) * 2020-01-20 2020-06-12 河北工业大学 基于改进姿态估计算法的嵌入式平台实时跌倒检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN110147743A (zh) * 2019-05-08 2019-08-20 中国石油大学(华东) 一种复杂场景下的实时在线行人分析与计数系统及方法
CN110569723A (zh) * 2019-08-02 2019-12-13 西安工业大学 一种结合特征融合与模型更新的目标跟踪方法
CN111274954A (zh) * 2020-01-20 2020-06-12 河北工业大学 基于改进姿态估计算法的嵌入式平台实时跌倒检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
修宇亮: "基于视觉的人体姿态轨迹提取和人体新视图合成", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
闫芬婷等: "基于视频的实时多人姿态估计方法", 《激光与光电子学进展》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516012A (zh) * 2021-04-09 2021-10-19 湖北工业大学 一种基于多层级特征融合的行人重识别方法及系统
CN113516012B (zh) * 2021-04-09 2022-04-15 湖北工业大学 一种基于多层级特征融合的行人重识别方法及系统
CN113850221A (zh) * 2021-09-30 2021-12-28 北京航空航天大学 一种基于关键点筛选的姿态跟踪方法

Similar Documents

Publication Publication Date Title
CN109558832B (zh) 一种人体姿态检测方法、装置、设备及存储介质
Zhang et al. Learning spatiotemporal features using 3dcnn and convolutional lstm for gesture recognition
CN102332095B (zh) 一种人脸运动跟踪方法和系统以及一种增强现实方法
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
Xu et al. Online dynamic gesture recognition for human robot interaction
Lim et al. A feature covariance matrix with serial particle filter for isolated sign language recognition
CN110135249B (zh) 基于时间注意力机制和lstm的人体行为识别方法
Arif et al. Automated body parts estimation and detection using salient maps and Gaussian matrix model
CN107808376B (zh) 一种基于深度学习的举手检测方法
Chen et al. Using FTOC to track shuttlecock for the badminton robot
CN108681700A (zh) 一种复杂行为识别方法
CN110334607B (zh) 一种视频人体交互行为识别方法及系统
CN106650617A (zh) 一种基于概率潜在语义分析的行人异常识别方法
CN111476089B (zh) 一种图像中多模态信息融合的行人检测方法、系统及终端
CN104794737A (zh) 一种深度信息辅助粒子滤波跟踪方法
Zhang et al. Multimodal spatiotemporal networks for sign language recognition
CN114187665A (zh) 一种基于人体骨架热图的多人步态识别方法
CN113378649A (zh) 身份、位置和动作识别方法、系统、电子设备及存储介质
CN114399838A (zh) 基于姿态估计和二重分类的多人行为识别方法及系统
CN114821764A (zh) 一种基于kcf追踪检测的手势图像识别方法及系统
Tan et al. A multiple object tracking algorithm based on YOLO detection
Yang et al. HCNN-PSI: A hybrid CNN with partial semantic information for space target recognition
CN110555383A (zh) 一种基于卷积神经网络和3d估计的手势识别方法
CN112069943A (zh) 基于自顶向下框架的在线多人姿态估计与跟踪方法
CN112906520A (zh) 一种基于姿态编码的动作识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20201211