CN112966563A - 一种基于人体骨骼检测和跟踪算法的行为识别方法 - Google Patents

一种基于人体骨骼检测和跟踪算法的行为识别方法 Download PDF

Info

Publication number
CN112966563A
CN112966563A CN202110153661.8A CN202110153661A CN112966563A CN 112966563 A CN112966563 A CN 112966563A CN 202110153661 A CN202110153661 A CN 202110153661A CN 112966563 A CN112966563 A CN 112966563A
Authority
CN
China
Prior art keywords
algorithm
person
mobile phone
target
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110153661.8A
Other languages
English (en)
Other versions
CN112966563B (zh
Inventor
陈启军
刘成菊
王柳懿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202110153661.8A priority Critical patent/CN112966563B/zh
Publication of CN112966563A publication Critical patent/CN112966563A/zh
Application granted granted Critical
Publication of CN112966563B publication Critical patent/CN112966563B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于人体骨骼检测和跟踪算法的行为识别方法,包括:S1、利用基于深度卷积神经网络的目标检测算法对输入图像中的手机和人物进行识别和定位;S2、利用基于卡尔曼滤波和匈牙利算法的多目标跟踪算法,融合前后图像帧的时空信息,对目标人物进行跟踪;S3、利用基于部件亲和度算法的轻量人体姿态估计算法检测图像中每个人的关节点坐标;S4、计算每个人的手腕与每部手机的中心距离,若距离小于阈值,计算对应手肘的弯曲角度;S5、若距离和角度均小于阈值,则增加当前人物的可疑指数,若可疑指数超过一定阈值,则认为当前人物正在玩手机;若超过一定帧数均未更新,则删除该目标。本发明具有运行速度快、行为识别准确、应用方便等优点。

Description

一种基于人体骨骼检测和跟踪算法的行为识别方法
技术领域
本发明涉及计算机视觉技术领域,尤其是涉及一种基于人体骨骼检测和跟踪算法的行为识别方法。
背景技术
人体行为识别是目前建造智慧楼宇或智能工厂的关键技术之一,使得人机交互、智能监控、视频检索等人工智能应用具有广泛的应用前景和研究意义。传统的简单行为识别方法大多仅包含单帧人体骨架信息,未有效融合人体周围物品目标和自身在时域上的持续情况。目前还没有一个完整的同时融合目标检测、人体姿态识别和目标跟踪且考虑时空信息的综合性方法,因此现有方法对于简单常见行为的识别存在大量误检的情况。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于人体骨骼检测和跟踪算法的行为识别方法。
本发明的目的可以通过以下技术方案来实现:
一种基于人体骨骼检测和跟踪算法的行为识别方法,该方法包括以下步骤:
步骤1:利用基于深度卷积神经网络的目标检测算法对输入图像中的手机和人物进行识别和定位,识别信息包括目标的中心点坐标、长宽高和类别;
步骤2:利用基于卡尔曼滤波和匈牙利算法的多目标跟踪算法,针对输入图像融合前后图像帧的时空信息,进一步对目标人物进行跟踪;
步骤3:利用自下向上的轻量人体姿态估计算法检测图像中关节点坐标,融合网络预测的热图和部件亲和度图,使用匈牙利算法来对图像中每个人的关节点进行连接和匹配;
步骤4:计算图像中每个人的手腕与每部手机的中心距离,若距离小于对应阈值,计算对应手肘的弯曲角度,若距离大于对应阈值,则认为没有玩手机;
步骤5:若距离和弯曲角度均小于对应阈值,则增加当前人物的可疑指数,若可疑指数超过对应阈值,则认为当前人物正在玩手机;反之,若可疑指数超过一段帧数后均未更新,则删除该可疑指数对应的人物目标。
进一步地,所述的步骤1中,目标检测算法采用单阶段模型,使用轻量网络作为骨干部分来提取图片特征,利用双向特征金字塔结构融合多尺度特征信息。
进一步地,所述的目标检测算法采用EfficientDet-D0算法,所述轻量网络采用EfficientNet网络。
进一步地,所述的步骤2具体包括:在步骤1目标检测的基础上,使用卡尔曼滤波实现状态预测,利用匈牙利算法来对上下帧中的多个目标进行匹配与连接,以实现目标跟踪。
进一步地,所述的步骤2中的多目标跟踪算法采用DeepSort算法,同时考虑运动信息的关联和目标外观信息的关联。
进一步地,所述的步骤3中的自下向上的轻量人体姿态估计算法采用以GhostNet作为骨干网络的单分支轻量OpenPose算法。
进一步地,所述的步骤4中,采用欧几里得距离对人体腕部和手机的距离进行描述,且若图像中存在多个手机,则每个手机只能与人体连接一次,即若当前手机已与单个人物相连,则下一次迭代时该手机不再参与计算。
进一步地,所述的步骤4中的手肘的弯曲角度,其计算公式为:
Figure BDA0002933564360000021
式中,α为手肘的弯曲角度,(x1,y1)为手肘坐标,(x2,y2)为肩部坐标,(x3,y3)为手腕坐标。
进一步地,所述的步骤5中,采用可疑指数对人物目标是否在玩手机的可疑程度进行描述,引入时间容错机制,当同一个人的可疑指数连续增加并超过阈值后,则认为其正在玩手机。
与现有技术相比,本发明具有以下优点:
(1)本发明同时实现了目标检测、目标跟踪和人体姿态估计,融合图像中多维信息,对“玩手机”行为的人体骨架特征进行建模,引入可疑指数来对人物的时空信息进行描述。方法包含的识别步骤更加接近真人识别的情况,行为识别精确率更高,能够有效避免误检。
(2)本发明注重方法的实际应用效率,对目标检测算法和人体姿态估计算法均进行了轻量化处理,利用轻量骨干网络来提取图像特征,在保持精度可行的前提下最大程度提高模型效率,具有参数量少、计算量低、运行速度快的特点。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明方法的整体流程框图。
图2是本发明方法的具体系统流程图。
图3是本发明方法中“玩手机”行为模型的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
此外,术语“水平”、“竖直”等术语并不表示要求部件绝对水平或悬垂,而是可以稍微倾斜。如“水平”仅仅是指其方向相对“竖直”而言更加水平,并不是表示该结构一定要完全水平,而是可以稍微倾斜。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
本实施例提供了一种基于人体骨骼检测和跟踪算法的“玩手机”行为识别方法,该方法的整体流程框图如图1所示,具体包括以下步骤:
S1、利用基于深度卷积神经网络的目标检测算法对输入图像中的手机和人物进行识别和定位,识别信息包括目标的中心点坐标、长宽高和类别。
其中,目标检测算法采用EfficientDet-D0算法,骨干网络使用EfficientNet网络对图像进行特征提取,利用复合缩放技术对整个网络模型进行缩放,获取更加轻量的网络模型,采用加权的双向特征金字塔结构实现快速多尺度融合,权重计算公式如下:
Figure BDA0002933564360000041
以P6为例,双向特征金字塔结构的输出可表达为如下形式:
Figure BDA0002933564360000042
Figure BDA0002933564360000043
S2、利用基于卡尔曼滤波和匈牙利算法的多目标跟踪算法,融合前后图像帧的时空信息,对目标人物进行跟踪;
其中,本发现使用DeepSort算法实现多目标跟踪,同时考虑运动信息的关联和目标外观信息的关联。使用8个参数
Figure BDA0002933564360000044
来进行运动状态的描述。其中,u和v分别代表目标的中心点位置,γ用于描述长宽比,h是目标的宽度,
Figure BDA0002933564360000051
则分别代表速度信息。使用基于常量速度模型和线性观测模型的标准卡尔曼滤波对目标的运动状态进行预测。在指派时,同时考虑运动信息和目标外观信息的关联,度量表达式为:ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)。其中,d(1)(i,j)表示运动信息关联,d(2)(i,j)表示外观信息关联,由以下公式定义:
Figure BDA0002933564360000052
Figure BDA0002933564360000053
S3、利用自下向上的轻量人体姿态估计算法检测图像中关节点坐标,融合网络预测的热图和部件亲和度图,使用匈牙利算法来对每个人的关节点进行连接和匹配;
其中,本发明使用以GhostNet作为骨干网络的单分支轻量OpenPose算法来对图像中人物的关节点进行检测。这是一种自底向上的人体姿态估计方法,直接对图像中所有类型的关节点进行分类和回归,再利用匹配算法将各关节点和人体进行连接和匹配。
S4、计算每个人的手腕与每部手机的中心距离,若距离小于阈值,计算对应手肘的弯曲角度。如果人体手腕和手机的距离均大于阈值,则认为没有玩手机;
其中,设xi1和xi2分别代表第i个人的左右手腕的位置,图中共有J部手机,那么第i个人到手机的最短距离di可表示为:di=min{d(xim,j)|j∈J,m∈(1,2)}。d(·)表示欧几里得距离。
假设手肘的坐标为(x1,y1),肩部的坐标为(x2,y2),手腕的坐标为(x3,y3),则肩部-手肘-手腕的夹角计算公式如下:
Figure BDA0002933564360000054
S5、若距离和角度均小于阈值,则增加当前人物的可疑指数,若可疑指数超过一定阈值,则认为当前人物正在玩手机;反之,若某个人的可疑指数超过一定帧数均未更新,则删除该可疑目标。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (9)

1.一种基于人体骨骼检测和跟踪算法的行为识别方法,其特征在于,该方法包括以下步骤:
步骤1:利用基于深度卷积神经网络的目标检测算法对输入图像中的手机和人物进行识别和定位,识别信息包括目标的中心点坐标、长宽高和类别;
步骤2:利用基于卡尔曼滤波和匈牙利算法的多目标跟踪算法,针对输入图像融合前后图像帧的时空信息,进一步对目标人物进行跟踪;
步骤3:利用自下向上的轻量人体姿态估计算法检测图像中关节点坐标,融合网络预测的热图和部件亲和度图,使用匈牙利算法来对图像中每个人的关节点进行连接和匹配;
步骤4:计算图像中每个人的手腕与每部手机的中心距离,若距离小于对应阈值,计算对应手肘的弯曲角度,若距离大于对应阈值,则认为没有玩手机;
步骤5:若距离和弯曲角度均小于对应阈值,则增加当前人物的可疑指数,若可疑指数超过对应阈值,则认为当前人物正在玩手机;反之,若可疑指数超过一段帧数后均未更新,则删除该可疑指数对应的人物目标。
2.根据权利要求1所述的一种基于人体骨骼检测和跟踪算法的行为识别方法,其特征在于,所述的步骤1中,目标检测算法采用单阶段模型,使用轻量网络作为骨干部分来提取图片特征,利用双向特征金字塔结构融合多尺度特征信息。
3.根据权利要求2所述的一种基于人体骨骼检测和跟踪算法的行为识别方法,其特征在于,所述的目标检测算法采用EfficientDet-D0算法,所述轻量网络采用EfficientNet网络。
4.根据权利要求1所述的一种基于人体骨骼检测和跟踪算法的行为识别方法,其特征在于,所述的步骤2具体包括:在步骤1目标检测的基础上,使用卡尔曼滤波实现状态预测,利用匈牙利算法来对上下帧中的多个目标进行匹配与连接,以实现目标跟踪。
5.根据权利要求2所述的一种基于人体骨骼检测和跟踪算法的行为识别方法,其特征在于,所述的步骤2中的多目标跟踪算法采用DeepSort算法,同时考虑运动信息的关联和目标外观信息的关联。
6.根据权利要求1所述的一种基于人体骨骼检测和跟踪算法的行为识别方法,其特征在于,所述的步骤3中的自下向上的轻量人体姿态估计算法采用以GhostNet作为骨干网络的单分支轻量OpenPose算法。
7.根据权利要求1所述的一种基于人体骨骼检测和跟踪算法的行为识别方法,其特征在于,所述的步骤4中,采用欧几里得距离对人体腕部和手机的距离进行描述,且若图像中存在多个手机,则每个手机只能与人体连接一次,即若当前手机已与单个人物相连,则下一次迭代时该手机不再参与计算。
8.根据权利要求1所述的一种基于人体骨骼检测和跟踪算法的行为识别方法,其特征在于,所述的步骤4中的手肘的弯曲角度,其计算公式为:
Figure FDA0002933564350000021
式中,α为手肘的弯曲角度,(x1,y1)为手肘坐标,(x2,y2)为肩部坐标,(x3,y3)为手腕坐标。
9.根据权利要求1所述的一种基于人体骨骼检测和跟踪算法的行为识别方法,其特征在于,所述的步骤5中,采用可疑指数对人物目标是否在玩手机的可疑程度进行描述,引入时间容错机制,当同一个人的可疑指数连续增加并超过阈值后,则认为其正在玩手机。
CN202110153661.8A 2021-02-04 2021-02-04 一种基于人体骨骼检测和跟踪算法的行为识别方法 Active CN112966563B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110153661.8A CN112966563B (zh) 2021-02-04 2021-02-04 一种基于人体骨骼检测和跟踪算法的行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110153661.8A CN112966563B (zh) 2021-02-04 2021-02-04 一种基于人体骨骼检测和跟踪算法的行为识别方法

Publications (2)

Publication Number Publication Date
CN112966563A true CN112966563A (zh) 2021-06-15
CN112966563B CN112966563B (zh) 2022-09-20

Family

ID=76275427

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110153661.8A Active CN112966563B (zh) 2021-02-04 2021-02-04 一种基于人体骨骼检测和跟踪算法的行为识别方法

Country Status (1)

Country Link
CN (1) CN112966563B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035119A (zh) * 2022-08-12 2022-09-09 山东省计算中心(国家超级计算济南中心) 一种玻璃瓶底瑕疵图像检测剔除装置、系统及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108205649A (zh) * 2016-12-20 2018-06-26 浙江宇视科技有限公司 驾驶员开车接打电话的状态识别方法及装置
CN109614939A (zh) * 2018-12-13 2019-04-12 四川长虹电器股份有限公司 基于人体姿态估计的“玩手机”行为检测识别方法
CN109685026A (zh) * 2018-12-28 2019-04-26 南通大学 一种驾驶员手持手机通话的实时监测方法
CN110287906A (zh) * 2019-06-26 2019-09-27 四川长虹电器股份有限公司 基于图像视频检测人“玩手机”的方法及系统
CN111178201A (zh) * 2019-12-20 2020-05-19 南京理工大学 基于OpenPose姿态检测的人体分段式跟踪方法
CN111461020A (zh) * 2020-04-01 2020-07-28 浙江大华技术股份有限公司 不安全使用手机行为的识别方法、设备及相关存储介质
CN112001347A (zh) * 2020-08-31 2020-11-27 重庆科技学院 一种基于人体骨架形态与检测目标的动作识别方法
CN112071084A (zh) * 2020-09-18 2020-12-11 城云科技(中国)有限公司 一种利用深度学习判断违章停车的方法和系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108205649A (zh) * 2016-12-20 2018-06-26 浙江宇视科技有限公司 驾驶员开车接打电话的状态识别方法及装置
CN109614939A (zh) * 2018-12-13 2019-04-12 四川长虹电器股份有限公司 基于人体姿态估计的“玩手机”行为检测识别方法
CN109685026A (zh) * 2018-12-28 2019-04-26 南通大学 一种驾驶员手持手机通话的实时监测方法
CN110287906A (zh) * 2019-06-26 2019-09-27 四川长虹电器股份有限公司 基于图像视频检测人“玩手机”的方法及系统
CN111178201A (zh) * 2019-12-20 2020-05-19 南京理工大学 基于OpenPose姿态检测的人体分段式跟踪方法
CN111461020A (zh) * 2020-04-01 2020-07-28 浙江大华技术股份有限公司 不安全使用手机行为的识别方法、设备及相关存储介质
CN112001347A (zh) * 2020-08-31 2020-11-27 重庆科技学院 一种基于人体骨架形态与检测目标的动作识别方法
CN112071084A (zh) * 2020-09-18 2020-12-11 城云科技(中国)有限公司 一种利用深度学习判断违章停车的方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MINGXING TAN,ET AL.: "EfficientDet: Scalable and Efficient Object Detection", 《ARXIV》 *
顾兰君: "基于骨架信息的人体动作识别研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035119A (zh) * 2022-08-12 2022-09-09 山东省计算中心(国家超级计算济南中心) 一种玻璃瓶底瑕疵图像检测剔除装置、系统及方法

Also Published As

Publication number Publication date
CN112966563B (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN104054039B (zh) 具有声音和几何分析的扩增现实
CN110135249B (zh) 基于时间注意力机制和lstm的人体行为识别方法
CN112001347B (zh) 一种基于人体骨架形态与检测目标的动作识别方法
CN110287825B (zh) 一种基于关键骨骼点轨迹分析的摔倒动作检测方法
CN114220176A (zh) 一种基于深度学习的人体行为的识别方法
CN110113116B (zh) 基于wifi信道信息的人体行为识别方法
CN101095149A (zh) 图像比较
CN110674680B (zh) 活体识别的方法、装置、存储介质
CN109902681B (zh) 用户群体关系确定方法、装置、设备及存储介质
CN111739053A (zh) 一种复杂场景下的在线多行人检测跟踪方法
CN112966563B (zh) 一种基于人体骨骼检测和跟踪算法的行为识别方法
CN107290975A (zh) 一种家居智能机器人
CN113033468A (zh) 一种基于多源图像信息的特定人员重识别方法
CN111260696A (zh) 一种面向边缘端行人跟踪和人数精确统计的方法
CN106934358A (zh) 基于余弦角距离加权复杂网络的小规模人群行为识别方法
WO2024012367A1 (zh) 视觉目标跟踪方法、装置、设备以及存储介质
CN111310689B (zh) 潜在信息融合的家庭安防系统中的人体行为识别的方法
CN113916223B (zh) 定位方法及装置、设备、存储介质
CN116246299A (zh) 一种结合目标检测和姿态识别技术的“低头族”智能识别系统
CN113763418B (zh) 一种基于头肩检测的多目标跟踪方法
CN111597881B (zh) 基于数据分离多尺度特征结合的人体复杂行为识别方法
CN110926467B (zh) 一种基于均值聚类算法的自适应行人手机姿态识别方法
CN114359646A (zh) 一种视频分析方法、装置、系统、电子设备和介质
CN111265835A (zh) 一种投掷运动训练设备及其控制方法
CN111178134A (zh) 一种基于深度学习与网络压缩的摔倒检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant