CN112347974A - 人体头部姿态估计算法及操作员工作状态识别系统 - Google Patents

人体头部姿态估计算法及操作员工作状态识别系统 Download PDF

Info

Publication number
CN112347974A
CN112347974A CN202011315864.4A CN202011315864A CN112347974A CN 112347974 A CN112347974 A CN 112347974A CN 202011315864 A CN202011315864 A CN 202011315864A CN 112347974 A CN112347974 A CN 112347974A
Authority
CN
China
Prior art keywords
head
human
operator
estimation algorithm
face characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011315864.4A
Other languages
English (en)
Inventor
殷广玉
姚斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Ucloudy Information Technology Co ltd
Original Assignee
Shanghai Ucloudy Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Ucloudy Information Technology Co ltd filed Critical Shanghai Ucloudy Information Technology Co ltd
Priority to CN202011315864.4A priority Critical patent/CN112347974A/zh
Publication of CN112347974A publication Critical patent/CN112347974A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人体头部姿态估计算法及系统,首先,通过视频采集器获取人体头部图像信息;然后,应用深度学习方法构建人脸特征点模型,获取图像中人脸特征点的位置;最后,计算出头部的相对角度,获取人体头部姿态特征。在算法中构建深度神经网络时加深特征数量,有效的提高了特征点准确度,能够较好的对人脸形状进行捕捉。针对驾驶室内操作人员的工作状态,进行人脸特征点的构建,以实现头部姿态跟踪,通过人脸角度的估计和判断,从而提醒管理者或者操作人员,达到预防人为事故的目的。

Description

人体头部姿态估计算法及操作员工作状态识别系统
技术领域
本发明属于图像处理领域,具体涉及一种人体头部姿态估计算法及操作员工作状态识别系统。
背景技术
在现代化建筑工中塔吊成为工地不可缺少的设备,而作为特种设备其安全要求是非常高的,其中重中之重就是塔吊的操作人员,不仅有着严格的持证考试要求,对其工作时间的状态需要时刻关注和提醒。
现有技术中,塔吊操作人员的监控只有视频监控,人为的查看视频中操作人员的状态,不能实时跟踪操作人员的工作状态,在发生意外的情况下,也无法及时通知管理人员。
发明内容
本发明所要解决的技术问题是:提供一种人体头部姿态估计算法及操作员工作状态识别系统,解决了现有技术中人体头部姿态估计算法复杂的问题。
本发明为解决上述技术问题采用以下技术方案:
一种人体头部姿态估计算法,首先,通过视频采集器获取人体头部图像信息;然后,应用深度学习方法构建人脸特征点模型,获取图像中人脸特征点的位置;最后,计算出头部的相对角度,获取人体头部姿态特征。
所述深度学习方法采用卷积约束模型检测人脸特征点,由点分布模型捕捉人脸的形状变化形成多个标记,并对每个标记进行建模。
人脸特征点分布在人脸局部语义区域周围,在获取的人脸图像上,根据特征点周围的整体及局部纹理分布,由卷积约束模型自动定位出人脸特征点的具体位置,将人脸特征点的具体位置及特征点周围的外观作为样本进行训练与学习,构建人脸特征点模型。
训练与学习的过程中,在构建深度神经网络时加深特征数量,提高特征点的准确度。
所述头部姿态为头部在三维空间中的转动角度,头部姿态估计的过程为从2D的头部图像中估计出头部三个相对于视频采集器的偏转角度,根据三个偏转角度的任何一种数学表达形式,确定头部图像的三维空间中的姿态。
所述三个偏转角度分别为俯仰角、偏航角、翻滚角。
为了进一步解决不能实时跟踪狭窄空间操作人员的工作状态的问题,本发明还提供一种操作员工作状态识别系统,具体的技术方案如下:
一种操作员工作状态识别系统,包括设置在操作室前端的视频采集器,与视频采集器连接的中央处理器,以及设置在监控室的远程监控终端;其中,视频采集器采集操作员的头部图像信息,发送至中央处理器;中央处理器对接收到的图像信息,应用人体头部姿态估计算法获取人体头部姿态特征,并将人体头部姿态特征发送至远程监控终端。
操作室及监控室内还包括报警装置,用于提示操作员本人或管理者当前的工作状态。
所述操作员工作状态识别系统用于塔吊操作员的工作状态识别。
与现有技术相比,本发明具有以下有益效果:
1、在算法中构建深度神经网络时加深特征数量,有效的提高了特征点准确度,能够较好的对人脸形状进行捕捉。
2、被观察者离视频采集器相对较近,位置相对固定,摄像头可以定点捕捉人脸,被观察者的情绪和头部姿态角度,决定了是否触发报警,需要深度神经网络时加深特征数量,有效的提高了特征点准确度。
3、由于驾驶室的空间比较小,操作人员的位置比较固定,在计算人脸特征点和头部转动角度的计算量大幅降低,可以对操作人员的状态做出快速反应。
4、针对驾驶室内操作人员的工作状态,进行人脸特征点的构建,以实现头部姿态跟踪,通过人脸角度的估计和判断,从而提醒管理者或者操作人员,达到预防人为事故的目的。
附图说明
图1为本发明操作员工作状态识别算法流程图。
图2为本发明人脸特征点模型构建的算法流程图。
图3为本发明头部旋转坐标图。
图4为本发明世界坐标系(UVW)、相机坐标系(XYZ)、图像中心坐标系(uv)和像素坐标系(xy)的关联图。
具体实施方式
下面结合附图对本发明的结构及工作过程作进一步说明。
本发明操作员工作状态识别通过视频监控图像对被观察者进行人脸特征识别和追踪,对头部姿态进行估计,以判断被观察者的工作状态。
本发明头部姿态估计算法首先通过视频采集器采集被观察者的头部图像信息,利用深度学习头部姿态估计算法识别出用户人脸准确位置,并计算出用户头部的相对角度。
深度学习采用卷积约束模型(CE-CLM)检测人脸,其由点分布模型(PDM)捕捉人脸的形状变化形成标记并对每个标记进行建模。人脸特征点一般分布在人脸局部语义区域周围。人脸特征点检测即在指定的人脸图像上由相关方法自动地定位出人脸特征点的具体位置,该处相关方法为卷积约束模型算法,该检测过程依赖于特征点周周的整体及局部纹理分布。典型的人脸特征点检测方法是对人脸特征点位置以及每个特征点周围的外观进行训练与学习,通过学习到的模型预测输入图像中人脸特征点的位置。为了能够较好的对人脸形状进行捕捉,在算法中构建深度神经网络时加深特征数量,有效的提高了特征点准确度
头部姿态指的是头部在三维空间中的转动的角度,计算机视觉中所说的头部姿态估计即为从2D的人的头部图像中估计出头部三个相对于摄像机的偏转角度的过程。一旦获得三个偏转角的任何一种数学形式的表达,都可以确定头部图像的三维空间中的姿态。
计算出头部姿态,从而可以判断出操作人员当前的状态,是在低头还是正视前方,或者正在扭头看其他地方,从而可以提醒管理者或者操作员本人,从而更好确保了操作人员的工作状态是良好的,最大程度的避免人为事故的发生。
具体的算法为:一种人体头部姿态估计算法,首先,通过视频采集器获取人体头部图像信息;然后,应用深度学习方法构建人脸特征点模型,获取图像中人脸特征点的位置;最后,计算出头部的相对角度,获取人体头部姿态特征。
具体实施例,如图1至图4所示,
第一步:构建人脸特征点
应用卷积约束模型检测人脸,其由点分布模型捕捉人脸的形状变化形成标记并对每个标记进行建模。人脸特征点一般分布在人脸局部语义区域周围。人脸特征点检测即在指定的人脸图像上由卷积约束模型检测方法自动地定位出人脸特征点的具体位置,该检测过程依赖于特征点周围的整体及局部纹理分布。典型的人脸特征点检测方法是将人脸特征点具体位置以及每个特征点周围的外观作为样本进行训练与学习,构建人脸特征点模型,通过学习到的模型预测输入图像中人脸特征点的位置。
模型构建之形状模型构建如(公式一)所示:
Figure BDA0002791390810000031
其中,
Figure BDA0002791390810000032
为平均脸,P为形状变化的主成分组成的矩阵,它是一个关键的参数。
假设我们有M张图片,每张图片有N个特征点,每个特征点的坐标假设为(xi yi),i=1,2,...,N,一张图像上的N个特征点的坐标组成的向量用如下公式表示:
x=[x1 y1 x2 y2 ... xN yN]T
所有图像的平均脸用公式二表示:
Figure BDA0002791390810000041
然后每张脸组成的向量都减去这个平均脸向量,就得到一个均值为0的形状变化矩阵X,如下表示:
Figure BDA0002791390810000042
X是相对于平均脸的偏差,对XX/进行主成分分析,得到形状变化的决定性成分,即特征向量Pj以及相对应的特征值λj,选择前K个特征向量以列排放的方式组成形状变化矩阵P,这些特征向量其实就是所有样本变换的基,可以表述样本中的任意变化。有了形状变化矩阵P,(公式一)中的B就可以通过(公式三)得出:
Figure BDA0002791390810000043
其中,求出的B其实是形状变化的权重向量,决定哪些特征点起着关键作用。到这里就完成模型构建,当给定一个权重B时,我们就可以用(公式一)重建出一个形状,这个权重B在以后点拟合阶段起着关键作用。
在构建好形状模型之后,我们就可以在检测到的人脸上初始化一个人脸形状模型,接下来的工作就是让每个点在其邻域范围内寻找最佳匹配点。
拟合一个二次函数,假设R(X,Y)是在邻域范围内(x0,y0)处得到最大值,我们对这个位置拟合一个函数,使得位置和最大值R(X,Y)一一对应。拟合函数如(公式四)所示:
r(x,y)=a(x-x0)2+b(y-y0)2+c 公式四
其中,a,b,c是我们要求的拟合二次函数的参数,求解方法就是使拟合函数r(x,y)和R(X,Y)之间的误差最小,即完成一个最小二乘法计算,如(公式五)所示:
Figure BDA0002791390810000051
通过(公式五)完成最小二乘法运算后得到(公式四)的参数a,b,c,有了参数a,b,c,那么r(x,y)其实就是一个关于特征点位置的目标代价函数,然后再加上一个形变约束代价函数就构成了特征点查找的目标函数,每次优化这个目标函数得到一个新的特征点位置,然后在迭代更新,直到收敛到最大值,就完成了人脸点拟合。目标函数如(公式六)所示:
Figure BDA0002791390810000052
在(公式六)的目标函数中第二项就是形状约束,b是上面说的形变成分的权重,而β则是形变成分(主成分分析中的空间轴)对应的幅度(主成分分析的特征值)。第一项是拟合位置作为新特征点位置的代价,而这个位置的代价再减去平均形状的变化,这样就形成了位置和形状两种约束的制约,如果一个在一个歧义的位置得到的r(x,y)分很高,但是离平均脸很远,那么f(x)值也会很小,那就不是最优值。
Figure BDA0002791390810000053
Figure BDA0002791390810000054
其中,可以看出(公式七)是个关于特征点位置X的二次凸函数,有全局最优解。每次求出最优解,然后再计算邻域响应图,在求解直到收敛时就完成了特征点的拟合查找工作。
第二步:计算出头部旋转角度
头部姿态指的是头部在三维空间中的转动的角度,计算机视觉中所说的头部姿态估计即为从2D的人的头部图像中估计出头部三个相对于摄像机的偏转角度的过程。
一个物体相对于相机的姿态可以使用旋转矩阵和平移矩阵来表示。
平移矩阵:物体相对于相机的空间位置关系矩阵,用T表示;
旋转矩阵:物体相对于相机的空间姿态关系矩阵,用R表示。
世界坐标系到相机坐标系:
Figure BDA0002791390810000061
相机坐标系到像素坐标系:
Figure BDA0002791390810000062
因此像素坐标系和世界坐标系的关系如下:
Figure BDA0002791390810000063
最后图像中心坐标系到像素坐标系:
Figure BDA0002791390810000064
利用OpenCV提供的函数solvePnp(),得到旋转矩阵的欧拉角:
Figure BDA0002791390810000065
Figure BDA0002791390810000066
训练与学习的过程中,在构建深度神经网络时加深特征数量,提高特征点的准确度。
所述头部姿态为头部在三维空间中的转动角度,头部姿态估计的过程为从2D的头部图像中估计出头部三个相对于视频采集器的偏转角度,根据三个偏转角度的任何一种数学表达形式,确定头部图像的三维空间中的姿态。
所述三个偏转角度分别为俯仰角、偏航角、翻滚角。
一种操作员工作状态识别系统,包括设置在操作室前端的视频采集器,与视频采集器连接的中央处理器,以及设置在监控室的远程监控终端;其中,视频采集器采集操作员的头部图像信息,发送至中央处理器;中央处理器对接收到的图像信息,应用所述人体头部姿态估计算法获取人体头部姿态特征,并将人体头部姿态特征发送至远程监控终端。
操作室及监控室内还包括报警装置,用于提示操作员本人或管理者当前的工作状态。
所述操作员工作状态识别系统用于塔吊操作员的工作状态识别。
所述点分布模型通过标记人体面部图像面部特征点的坐标建立起人体面部的形状模型;选取相对较为理想形状向量作为初始样本,其他的向量与初始样本进行形状上的相互对应,直到相邻两次的平均形状向量差别小于某一特定值。
本发明的系统适合用于狭窄空间操作员的实时监控,例如,塔吊等。
本发明的所有附图对非限制性实施例所作的详细描述,本发明及其特征、外形和优点将会变得更加明显。在全部附图中相同的标记指示相同的部分。并未可以按照比例绘制附图,重点在于示出本发明的主旨。
以上对本发明的较佳实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,其中未尽详细描述的部分应该理解为用本领域中的普通方式予以实施;任何熟悉本领域的技术人员,在不脱离本发明技术方案范围情况下,都可利用上述揭示的方法和技术内容对本发明技术方案做出许多可能的变动和修饰,或修改为等同变化的等效实施例,这并不影响本发明的实质内容。因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。

Claims (9)

1.一种人体头部姿态估计算法,其特征在于:首先,通过视频采集器获取人体头部图像信息;然后,应用深度学习方法构建人脸特征点模型,获取图像中人脸特征点的位置;最后,计算出头部的相对角度,获取人体头部姿态特征。
2.根据权利要求1所述的人体头部姿态估计算法,其特征在于:所述深度学习方法采用卷积约束模型检测人脸特征点,由点分布模型捕捉人脸的形状变化形成多个标记,并对每个标记进行建模。
3.根据权利要求2所述的人体头部姿态估计算法,其特征在于:人脸特征点分布在人脸局部语义区域周围,在获取的人脸图像上,根据特征点周围的整体及局部纹理分布,由卷积约束模型自动定位出人脸特征点的具体位置,将人脸特征点的具体位置及特征点周围的外观作为样本进行训练与学习,构建人脸特征点模型。
4.根据权利要求3所述的人体头部姿态估计算法,其特征在于:训练与学习的过程中,在构建深度神经网络时加深特征数量,提高特征点的准确度。
5.根据权利要求1所述的人体头部姿态估计算法,其特征在于:所述头部姿态为头部在三维空间中的转动角度,头部姿态估计的过程为从2D的头部图像中估计出头部三个相对于视频采集器的偏转角度,根据三个偏转角度的任何一种数学表达形式,确定头部图像的三维空间中的姿态。
6.根据权利要求5所述的人体头部姿态估计算法,其特征在于:所述三个偏转角度分别为俯仰角、偏航角、翻滚角。
7.一种操作员工作状态识别系统,其特征在于:包括设置在操作室前端的视频采集器,与视频采集器连接的中央处理器,以及设置在监控室的远程监控终端;其中,视频采集器采集操作员的头部图像信息,发送至中央处理器;中央处理器对接收到的图像信息,应用权利要求1至6中任一项所述的人体头部姿态估计算法获取人体头部姿态特征,并将人体头部姿态特征发送至远程监控终端。
8.根据权利要求7所述的操作员工作状态识别系统,其特征在于:操作室及监控室内还包括报警装置,用于提示操作员本人或管理者当前的工作状态。
9.根据权利要求7所述的操作员工作状态识别系统,其特征在于:所述操作员工作状态识别系统用于塔吊操作员的工作状态识别。
CN202011315864.4A 2020-11-22 2020-11-22 人体头部姿态估计算法及操作员工作状态识别系统 Pending CN112347974A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011315864.4A CN112347974A (zh) 2020-11-22 2020-11-22 人体头部姿态估计算法及操作员工作状态识别系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011315864.4A CN112347974A (zh) 2020-11-22 2020-11-22 人体头部姿态估计算法及操作员工作状态识别系统

Publications (1)

Publication Number Publication Date
CN112347974A true CN112347974A (zh) 2021-02-09

Family

ID=74364578

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011315864.4A Pending CN112347974A (zh) 2020-11-22 2020-11-22 人体头部姿态估计算法及操作员工作状态识别系统

Country Status (1)

Country Link
CN (1) CN112347974A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863548A (zh) * 2022-03-22 2022-08-05 天津大学 基于人体运动姿态非线性空间特征的情绪识别方法及装置
CN118038560A (zh) * 2024-04-12 2024-05-14 魔视智能科技(武汉)有限公司 驾驶员的人脸姿态预测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156537A (zh) * 2010-02-11 2011-08-17 三星电子株式会社 一种头部姿态检测设备及方法
CN107909061A (zh) * 2017-12-07 2018-04-13 电子科技大学 一种基于不完备特征的头部姿态跟踪装置及方法
CN110069979A (zh) * 2019-03-05 2019-07-30 北京航空航天大学 管制员状态检测方法、装置及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156537A (zh) * 2010-02-11 2011-08-17 三星电子株式会社 一种头部姿态检测设备及方法
CN107909061A (zh) * 2017-12-07 2018-04-13 电子科技大学 一种基于不完备特征的头部姿态跟踪装置及方法
CN110069979A (zh) * 2019-03-05 2019-07-30 北京航空航天大学 管制员状态检测方法、装置及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CRISTINACCE D等: "Feature detection and tracking with constrained local models", 《PROCEEDINGS OF THE 2006 BRITISH MACHINE VISION CONFERENCE》 *
张美玲等: "面部吸引力提升的定量分析与实现", 《北京化工大学学报(自然科学版)》 *
束 平等: "一种复杂环境下鲁棒的精确人脸检测算法", 《电子设计工程》 *
许华胜等: "基于CLM的驾驶员违章打电话检测系统设计", 《青岛大学学报(工程技术版)》 *
陈 平等: "基于尺度自适应与增量式学习的人脸对齐方法", 《计算机应用》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863548A (zh) * 2022-03-22 2022-08-05 天津大学 基于人体运动姿态非线性空间特征的情绪识别方法及装置
CN114863548B (zh) * 2022-03-22 2024-05-31 天津大学 基于人体运动姿态非线性空间特征的情绪识别方法及装置
CN118038560A (zh) * 2024-04-12 2024-05-14 魔视智能科技(武汉)有限公司 驾驶员的人脸姿态预测方法及装置

Similar Documents

Publication Publication Date Title
CN105930767B (zh) 一种基于人体骨架的动作识别方法
CN110480634B (zh) 一种针对机械臂运动控制的手臂引导运动控制方法
CN107292911A (zh) 一种基于多模型融合和数据关联的多目标跟踪方法
CN103997624B (zh) 重叠域双摄像头目标跟踪系统及方法
CN108090572B (zh) 一种海上风电场增强现实系统的控制方法
CN108764048A (zh) 人脸关键点检测方法及装置
CN109949375A (zh) 一种基于深度图感兴趣区域的移动机器人目标跟踪方法
CN106355147A (zh) 一种活体人脸检测头部姿态回归器的获取方法及检测方法
CN114417616A (zh) 一种装配机器人遥操作环境的数字孪生建模方法及系统
CN112560741A (zh) 一种基于人体关键点的安全穿戴检测方法
CN109919141A (zh) 一种基于骨架姿态的行人再识别方法
CN113077519B (zh) 一种基于人体骨架提取的多相机外参自动标定方法
CN102638653A (zh) 一种基于Kinect的自动面部追踪方法
CN110675453B (zh) 一种已知场景中运动目标的自定位方法
CN112347974A (zh) 人体头部姿态估计算法及操作员工作状态识别系统
CN117671738B (zh) 基于人工智能的人体姿态识别系统
CN112966628A (zh) 一种基于图卷积神经网络的视角自适应多目标摔倒检测方法
CN102156994B (zh) 一种单视角无标记人体运动跟踪的关节定位方法
CN109000578A (zh) 一种全场非接触式的建筑幕墙风压变形监测方法
JP2008065368A (ja) ステレオ画像を利用した物体の位置および姿勢認識システム、物体の位置および姿勢認識方法、およびこの方法を実行するプログラム
CN113971835A (zh) 一种家电设备的控制方法、装置、存储介质及终端设备
CN111241936A (zh) 一种基于深度和彩色图像特征融合的人体姿态估计方法
CN109931940B (zh) 一种基于单目视觉的机器人定位置信度评估方法
CN110991306A (zh) 自适应的宽视场高分辨率智能传感方法和系统
CN112785564B (zh) 一种基于机械臂的行人检测跟踪系统与方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210209