CN111680560A - 一种基于时空特征的行人再识别方法 - Google Patents

一种基于时空特征的行人再识别方法 Download PDF

Info

Publication number
CN111680560A
CN111680560A CN202010377516.3A CN202010377516A CN111680560A CN 111680560 A CN111680560 A CN 111680560A CN 202010377516 A CN202010377516 A CN 202010377516A CN 111680560 A CN111680560 A CN 111680560A
Authority
CN
China
Prior art keywords
pedestrian
video
feature
image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010377516.3A
Other languages
English (en)
Inventor
胡彬
李跃华
陈越
程实
赵理莉
唐庆阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202010377516.3A priority Critical patent/CN111680560A/zh
Publication of CN111680560A publication Critical patent/CN111680560A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于时空特征的行人再识别方法,首先采用人体姿态估计方法提取行人骨骼关键点,针对视频序列中的每一帧图像,根据骨骼关键点将人体分成人体主体部分和人体附属背景部分,设计双通道神经网络提取图像中行人的表观特征。针对视频序列,通过将相邻帧提取的时间信息和空间上图卷积提取的空间信息的串联叠加,得到行人在视频序列中的时空信息。最后将提取的单帧图像表观特征和提取的视频时空特征结合,并考虑时间维度对特征融合的权重影响,利用度量学习方法区分行人特征对。本发明设计双通道神经网络提取图像中行人的表观特征,基于深度特征分析,既能有效地提高行人再识别的识别效率,又能保持较高的行人再识别精度。

Description

一种基于时空特征的行人再识别方法
技术领域
本发明属于计算机视觉领域,具体涉及一种基于时空特征的行人再识别方法。
背景技术
随着人们对社会公共安全的日益关注以及视频采集技术和大规模数据存储技术的发展,大量的监控摄像头应用在商场、公园、学校、医院、公司、体育场馆、大型广场、地铁站等人群密集易发生公共安全事件的场所。人工已难以应对海量增长的监控视频,因此利用计算机对监控视频中的行人等进行再识别(Re-identigication)的需求应运而生。
行人再识别也叫行人重识别,就是在跨摄像机、跨场景条件下,对不同时刻拍摄的行人图像进行识别,从而判断是否为同一行人,即识别出跨摄像机、跨场景下的行人是否为同一个人。随着社会中监控网络的不断完善,以及智慧城市、智能安保、智能监控等领域需求的增长,行人再识别研究吸引了工业界和学术界许多的研究者。
尽管人脸识别技术目前已发展的较为成熟,在很多场景与产品中都已有落地的应用,但是人脸识别技术的应用具有一定局限性:首先,人脸识别技术只能用到人体的人脸信息,其他的重要信息得不到充分的利用,例如:衣着、姿态、行为等;其次,人脸识别技术在应用时必须要有清晰的正面人脸照片,即对图像细节要求比较高,在很多场景下无法满足这些条件,例如:低头侧脸、背对镜头、模糊身形、帽子遮挡等。
而行人再识别(Person Re-ID)技术正好能够弥补人脸识别技术的这些不足之处,Person Re-ID能够根据行人的穿着、体态、行为等信息认知行人,对行人目标进行跨社星际跟踪。这将人工智能(Artificial Intelligence,AI)的认知水平提高到了一个新的阶段,现在Person Re-ID已成为AI领域的重要研究方向。但由于监控场景的多样复杂性和行人的非合作性,使得行人再识别研究仍存在许多挑战,识别精度和识别效率均有待于进一步提高。
发明内容
本发明要解决的技术问题是提供一种基于时空特征的行人再识别方法,利用双通道神经网络提取图像中行人的表现特征,得到行人在视频序列中的时空信息,基于深度特征分析,提高识别精度,以解决在实际的大规模视频监控应用场景从海量的监控或采集数据中既能有效地提高行人再识别的识别效率,又能保持较高的行人再识别精度的技术问题。
为解决上述技术问题,本发明的实施例提供一种基于时空特征的行人再识别方法,包括如下步骤:
(1)针对视频序列中的每一帧图像,采用人体姿态估计方法提取骨骼关键点;
(2)通过双通道神经网络提取行人的表现特征Fi
(3)通过图卷积神经网络提取视频序列中行人的时空特征Fv
(4)融合Fi和Fv表示行人特征,通过度量学习得到度量相似度参数
Figure BDA0002480724910000031
来区分行人对;
(5)针对输入的两段视频序列{v1,v2},分别通过步骤(2)和步骤(3)得到特征对{f1=θF1i+(1-θ)F1v,f2=θF2w+(1-θ)F2v},根据步骤(4)中的相似度函数计算相似度
Figure BDA0002480724910000032
则认为两段视频序列中为同一个人。
其中,步骤(2)的具体步骤为:
(2-1)根据每一帧图像中的骨骼关键点将行人主体区域分给头部、躯干、左上肢、右上肢、左下肢、右下肢6个区域,P={P1,P2,P3,P4,P5,P6},Fhuman={g(P1),g(P2),g(P3),g(P4),g(P5),g(P6)},其中g(Pi)为各区域经过网络学习到的特征,Fhuman由6个区域的特征级联而成,选择resnet-34作为特征提取网络;
(2-2)将人体主体区域去除得到的人体附属背景区域输入resnet-34神经网络,训练完成后,去掉softmax分类层,得到特征Flatent
(2-3)训练神经网络,得到
Figure BDA0002480724910000033
N为视频中图像帧的数量,对视频中每一帧图像提取步骤(2-1)和(2-2)的特征,两种特征按比例系数a、β融合,a+β=1;N帧图像的特征叠加求平均之后得到Fi;
其中,步骤(3)的具体步骤为:
(3-1)使用时空卷积图构建多层骨骼时空图G=(V,E),在多层骨骼时空图中,节点矩阵集合V={vti|t=1,..,T,i=1,..,N},其中T为视频帧数,N为骨架关键点数,关键点上的第t帧、第i个关键点的特征向量F(vti)由关键点点坐标构成;
(3-2)构建邻接矩阵E,针对第t帧图像,E由两个子集组成,E1={vtivtj|(i,j)∈H},H表示人体骨骼点集合,邻接由自然骨骼连接和人工构建的非骨骼连接构成;
(3-3)构建相邻帧之间的时间图,E2={vtiv(t+1)i},代表了一个特点的关键点随着时间推移其轨迹;
(3-4)训练图卷积神经网络得到视频中行人的时空特征Fv
其中,步骤(4)的具体步骤为:
(4-1)分别构建特征对{x,t}之间的马氏距离:dM(x,t)=(x-t)TM(x-t),和余弦距离:
Figure BDA0002480724910000041
M和N分别为需要学习的度量矩阵;其中,特征对{x,t}表示从两段行人视频中分别提取的行人特征,该特征由步骤(2)的Fi和步骤(3)的Fv构成;
(4-2)构建特征对之间的相似度函数:f(x,t)=CSN(x,t)-dM(x,t);
(4-3)构建基于两段视频序列的二元组特征对,取同一个人的两段视频和不同人的两段视频各L对,特征表示为x=θFi+(1-θ)Fv,其中θ根据两段视频的时间跨度来调节,训练使得步骤(4-2)中的相似度函数最小化,得到M和N。
本发明的上述技术方案的有益效果如下:本发明采用人体姿态估计算法提取人体骨骼关键点,在单帧图像中设计基于双通道的深度卷积神经网络(CNN),分别提取人体部位特征和包括诸如拎包等附属品的人体附属特征,提高了单帧图像的特征表达能力。基于图卷积网络(GCN)的视频序列时空特征提取方法,通过人工构建非骨骼连接使信息在更浅的网络层得到交互,更深的网络学习到的特征信息也更加稳定准确,并结合图连接中加入骨骼点随时间移动形成的时间信息得到视频序列中行人的时空运动特征,以弥补在长时行人再识别任务中单帧图像特征的不足。将CNN提取的单帧图像特征和GCN提取的视频时空特征结合,并考虑时间维度对特征融合的权重影响,利用度量学习方法区分行人特征对。提出融合距离测度和相似度测度的方法得到测度矩阵,结合距离度量和相似度度量的优点,取得了较高的行人再识别准确率。
附图说明
图1为本发明中人体骨骼关键点示意图;
图2为本发明中双通道神经网络框图;
图3为本发明中人工构建的非骨骼连接示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明提供了一种基于视频序列和时空特征的行人再识别方法,首先采用人体姿态估计方法提取行人骨骼关键点,针对视频序列中的每一帧图像,根据骨骼关键点将人体分成人体主体部分和人体附属背景部分,设计双通道神经网络提取图像中行人的表观特征。针对视频序列,通过将相邻帧提取的时间信息和空间上图卷积提取的空间信息的串联叠加,得到行人在视频序列中的时空信息。最后将提取的单帧图像表观特征和提取的视频时空特征结合,并考虑时间维度对特征融合的权重影响,利用度量学习方法区分行人特征对。
一种基于视频序列和时空特征的行人再识别方法包括如下具体步骤:
(1)针对视频序列中的每一帧图像,采用人体姿态估计方法提取骨骼关键点,如图1所示。
(2)通过双通道神经网络(如图2所示)提取行人的表现特征Fi;
(2-1)根据每一帧图像中的骨骼关键点将行人主体区域分给头部、躯干、左上肢、右上肢、左下肢、右下肢6个区域,P={P1,P2,P3,P4,P5,P6},Fhuman={g(P1),g(P2),g(P3),g(P4),g(P5),g(P6)},其中g(Pi)为各区域经过网络学习到的特征,Fhuman由6个区域的特征级联而成,选择resnet-34作为特征提取网络;
(2-2)将人体主体区域去除得到的人体附属背景区域输入网络,得到Flatent
(2-3)训练神经网络,得到
Figure BDA0002480724910000061
N为视频中图像帧的数量,对视频中每一帧图像提取步骤(2-1)和(2-2)的特征,两种特征按比例系数a、β融合,a+β=1;N帧图像的特征叠加求平均之后得到Fi;。
(3)通过图卷积神经网络提取视频序列中行人的时空特征Fv
(3-1)使用时空卷积图构建多层骨骼时空图G=(V,E),在多层骨骼时空图中,节点矩阵集合V={vti|t=1,...,T,i=1,..,N},其中T为视频帧数,N为骨架关键点数,关键点上的第t帧、第i个关键点的特征向量F(vti)由关键点点坐标构成;
(3-2)构建邻接矩阵E,针对第t帧图像,E由两个子集组成,E1={vtivtj|(i,j)∈H},H表示人体骨骼点集合,邻接由自然骨骼连接和人工构建的非骨骼连接构成,如图3所示,实线表示固有的关键点连接,虚线表示人工构建的非骨骼连接。
(3-3)构建相邻帧之间的时间图,E2={vtiv(t+1)i},代表了一个特点的关键点随着时间推移其轨迹;
(3-4)训练图卷积神经网络得到视频中行人的时空特征Fv
(4)融合Fi和Fv表示行人特征,通过度量学习来区分行人对;
(4-1)分别构建特征对{x,t}之间的马氏距离:dM(x,t)=(x-t)TM(x-t),和余弦距离:
Figure BDA0002480724910000071
M和N分别为需要学习的度量矩阵;其中,特征对{x,t}表示从两段行人视频中分别提取的行人特征,该特征由步骤(2)的Fi和步骤(3)的Fv构成;
(4-2)构建特征对之间的相似度函数:f(x,t)=CSN(x,t)-dM(x,t);
(4-3)构建基于两段视频序列的二元组特征对,取同一个人的两段视频和不同人的两段视频各L对,特征表示为x=θFi+(1-θ)Fv,其中θ根据两段视频的时间跨度来调节,训练使得步骤(4-2)中的相似度函数最小化,得到M和N。
(5)针对输入的两段视频序列{v1,v2},分别通过步骤(2)和步骤(3)得到特征对{f1=θF1i+(1-θ)F1v,f2=θF2i+(1-θ)F2v},根据步骤(4)中的相似度函数计算相似度
Figure BDA0002480724910000072
则认为两段视频序列中为同一个人。
我们在MARS数据集对本发明进行了实验,训练样本包含625个行人,一共包括了8298个小段轨迹,总共509914张图片。训练时,对每张图片采用人体姿态估计方法提取骨骼关节点,将人体划分为行人主体区域和人体附属背景区域,通过双通道卷积神经网络训练得到每个行人的表观特征Fi,视频序列通过图卷积神经网络训练得到每个人的动作特征Fv,融合Fi和Fv表示行人特征,训练相似度函数得到M和N。测试集包括了636个行人,首先通过人体姿态估计方法提取骨骼关节点,然后通过训练时得到的模型提取行人表观特征Fi和动作特征Fv,融合Fi和Fv表示行人特征,根据相似度函数计算行人对的相似度D,按照D的大小排序,得到第一匹配率达到85%以上,较现有方法有较大提升。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于时空特征的行人再识别方法,其特征在于,包括如下步骤:
(1)针对视频序列中的每一帧图像,采用人体姿态估计方法提取骨骼关键点;
(2)通过双通道神经网络提取行人的表现特征Fi
(3)通过图卷积神经网络提取视频序列中行人的时空特征Fv
(4)融合Fi和Fv表示行人特征,通过度量学习得到度量相似度参数
Figure FDA0002480724900000011
来区分行人对;
(5)针对输入的两段视频序列{v1,v2},分别通过步骤(2)和步骤(3)得到特征对{f1=θF1i+(1-θ)F1v,f2=θF2i+(1-θ)F2v},根据步骤(4)中的相似度函数计算相似度
Figure FDA0002480724900000012
Figure FDA0002480724900000013
则认为两段视频序列中为同一个人。
2.根据权利要求1所述的基于时空特征的行人再识别方法,其特征在于,步骤(2)的具体步骤为:
(2-1)根据每一帧图像中的骨骼关键点将行人主体区域分给头部、躯干、左上肢、右上肢、左下肢、右下肢6个区域,P={P1,P2,P3,P4,P5,P6},Fhuman={g(P1),g(P2),g(P3),g(P4),g(P5),g(P6)},其中g(Pi)为各区域经过网络学习到的特征,Fhuman由6个区域的特征级联而成,选择resnet-34作为特征提取网络;
(2-2)将人体主体区域去除得到的人体附属背景区域输入resnet-34神经网络,训练完成后,去掉softmax分类层,得到特征Flatent
(2-3)训练神经网络,得到
Figure FDA0002480724900000021
N为视频中图像帧的数量,对视频中每一帧图像提取步骤(2-1)和(2-2)的特征,两种特征按比例系数a、β融合,a+β=1;N帧图像的特征叠加求平均之后得到Fi
3.根据权利要求1所述的基于时空特征的行人再识别方法,其特征在于,步骤(3)的具体步骤为:
(3-1)使用时空卷积图构建多层骨骼时空图G=(V,E),在多层骨骼时空图中,节点矩阵集合V={vti|t=1,...,T,i=1,...,N},其中T为视频帧数,N为骨架关键点数,关键点上的第t帧、第i个关键点的特征向量F(vti)由关键点点坐标构成;
(3-2)构建邻接矩阵E,针对第t帧图像,E由两个子集组成,E1={vtivtj|(i,j)∈H},H表示人体骨骼点集合,邻接由自然骨骼连接和人工构建的非骨骼连接构成;
(3-3)构建相邻帧之间的时间图,E2={vtiv(t+1)i},代表了一个特点的关键点随着时间推移其轨迹;
(3-4)训练图卷积神经网络得到视频中行人的时空特征Fv
4.根据权利要求1所述的基于时空特征的行人再识别方法,其特征在于,步骤(4)的具体步骤为:
(4-1)分别构建特征对{x,t}之间的马氏距离:dM(x,t)=(x-t)TM(x-t),和余弦距离:
Figure FDA0002480724900000022
M和N分别为需要学习的度量矩阵;其中,特征对{x,t}表示从两段行人视频中分别提取的行人特征,该特征由步骤(2)的Fi和步骤(3)的Fv构成;
(4-2)构建特征对之间的相似度函数:f(x,t)=CSN(x,t)-dM(x,t);
(4-3)构建基于两段视频序列的二元组特征对,取同一个人的两段视频和不同人的两段视频各L对,特征表示为x=θFi+(1-θ)Fv,其中θ根据两段视频的时间跨度来调节,训练使得步骤(4-2)中的相似度函数最小化,得到M和N。
CN202010377516.3A 2020-05-07 2020-05-07 一种基于时空特征的行人再识别方法 Pending CN111680560A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010377516.3A CN111680560A (zh) 2020-05-07 2020-05-07 一种基于时空特征的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010377516.3A CN111680560A (zh) 2020-05-07 2020-05-07 一种基于时空特征的行人再识别方法

Publications (1)

Publication Number Publication Date
CN111680560A true CN111680560A (zh) 2020-09-18

Family

ID=72451757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010377516.3A Pending CN111680560A (zh) 2020-05-07 2020-05-07 一种基于时空特征的行人再识别方法

Country Status (1)

Country Link
CN (1) CN111680560A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112541421A (zh) * 2020-12-08 2021-03-23 浙江科技学院 一种开放空间的行人换装重识别方法
CN113205060A (zh) * 2020-12-28 2021-08-03 武汉纺织大学 采用循环神经网络依据骨骼形态判断的人体动作检测方法
CN113936038A (zh) * 2021-10-13 2022-01-14 支付宝(杭州)信息技术有限公司 骨骼检测装置及其使用方法、训练方法和训练装置
CN114511870A (zh) * 2020-10-27 2022-05-17 天津科技大学 一种结合图卷积神经网络的行人属性信息提取与重识别方法
CN112541421B (zh) * 2020-12-08 2024-07-26 浙江科技学院 一种开放空间的行人换装重识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845397A (zh) * 2017-01-18 2017-06-13 湘潭大学 一种基于相似度度量的人脸确认方法
CN108229444A (zh) * 2018-02-09 2018-06-29 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法
CN109934177A (zh) * 2019-03-15 2019-06-25 艾特城信息科技有限公司 行人再识别方法、系统及计算机可读存储介质
CN109948459A (zh) * 2019-02-25 2019-06-28 广东工业大学 一种基于深度学习的足球动作评估方法与系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845397A (zh) * 2017-01-18 2017-06-13 湘潭大学 一种基于相似度度量的人脸确认方法
CN108229444A (zh) * 2018-02-09 2018-06-29 天津师范大学 一种基于整体和局部深度特征融合的行人再识别方法
CN109948459A (zh) * 2019-02-25 2019-06-28 广东工业大学 一种基于深度学习的足球动作评估方法与系统
CN109934177A (zh) * 2019-03-15 2019-06-25 艾特城信息科技有限公司 行人再识别方法、系统及计算机可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡彬等: "基于视频的行人再识别", 《南京航空航天大学学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114511870A (zh) * 2020-10-27 2022-05-17 天津科技大学 一种结合图卷积神经网络的行人属性信息提取与重识别方法
CN112541421A (zh) * 2020-12-08 2021-03-23 浙江科技学院 一种开放空间的行人换装重识别方法
CN112541421B (zh) * 2020-12-08 2024-07-26 浙江科技学院 一种开放空间的行人换装重识别方法
CN113205060A (zh) * 2020-12-28 2021-08-03 武汉纺织大学 采用循环神经网络依据骨骼形态判断的人体动作检测方法
CN113936038A (zh) * 2021-10-13 2022-01-14 支付宝(杭州)信息技术有限公司 骨骼检测装置及其使用方法、训练方法和训练装置

Similar Documents

Publication Publication Date Title
CN111666843B (zh) 一种基于全局特征和局部特征拼接的行人重识别方法
Chen et al. End-to-end learning of object motion estimation from retinal events for event-based object tracking
CN111680560A (zh) 一种基于时空特征的行人再识别方法
CN111639580B (zh) 一种结合特征分离模型和视角转换模型的步态识别方法
CN109447175A (zh) 结合深度学习与度量学习的行人再识别方法
CN102034267A (zh) 基于关注度的目标物三维重建方法
CN113743544A (zh) 一种跨模态神经网络构建方法、行人检索方法及系统
CN109657634A (zh) 一种基于深度卷积神经网络的3d手势识别方法及系统
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
Bartol et al. A review of 3D human pose estimation from 2D images
Yang et al. Human action recognition based on skeleton and convolutional neural network
CN116935486A (zh) 基于骨骼关节点和图像模态融合的手语识别方法及系统
CN116612238A (zh) 基于全局和局部时空编码器的3d人体姿态估计方法
Islam et al. Single and two-person (s) pose estimation based on R-WAA
Zhang et al. Skeleton-based action recognition with attention and temporal graph convolutional network
Liu et al. Multimodal-semantic context-aware graph neural network for group activity recognition
Yang et al. An end-to-end noise-weakened person re-identification and tracking with adaptive partial information
Shu et al. The research and implementation of human posture recognition algorithm via OpenPose
CN111178141B (zh) 一种基于注意力机制的lstm人体行为识别方法
Lu et al. A geometric convolutional neural network for 3d object detection
CN115937963A (zh) 一种基于步态识别的行人识别方法
Wei et al. Pose-guided multi-scale structural relationship learning for video-based pedestrian re-identification
Wang et al. Occluded person re-identification by multi-granularity generation adversarial network
Cheng et al. Indoor person behavior recognition based on deep learning and knowledge graph
Shi et al. Zero-shot learning for skeleton-based classroom action recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200918

RJ01 Rejection of invention patent application after publication