CN112966571A - 一种基于机器视觉的立定跳远腾空高度量测方法 - Google Patents
一种基于机器视觉的立定跳远腾空高度量测方法 Download PDFInfo
- Publication number
- CN112966571A CN112966571A CN202110176008.3A CN202110176008A CN112966571A CN 112966571 A CN112966571 A CN 112966571A CN 202110176008 A CN202110176008 A CN 202110176008A CN 112966571 A CN112966571 A CN 112966571A
- Authority
- CN
- China
- Prior art keywords
- frame
- long jump
- standing long
- image
- highest point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Social Psychology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于机器视觉的立定跳远腾空高度量测方法,其步骤包括:1摄像机采集立定跳远样本视频并利用OpenPose检测模型得到立定跳远人体关键点;2根据所述关键点构建躯干姿态向量;3利用所述人体躯干姿态向量对起跳帧和落地帧进行判别;4根据检测视频最高处漏帧状况采取不同方法量测高度;5对于非最高处漏帧状况采取OpenPose高度直接量测方法;6对于最高处漏帧状况通过OpenPose得到的位置点进行最小二乘法拟合二次函数,反向计算腾空高度。本发明利用机器视觉实现了对立定跳远高度的测量,减少了设备仪器成本,且不受天气、背景等外部因素的影响,具有较好的鲁棒性和检测准确率。
Description
技术领域
本发明涉及图像识别领域,具体的说是一种基于机器视觉的立定跳远腾空高度量测方法。
背景技术
立定跳远是国家体质健康监测的必测项目,它能有效发展学生的速度、协调、力量等身体素质,改善神经系统、心血管系统的功能。在影响学生的跳远成绩的诸多因素中,跳远的起跳高度是重中之重。因此,对学生立定跳远的腾空高度测量是十分必要的。
高度测量是模式识别中的一个很重要的特征,除了立定跳远外,在视频监控、交通管理等中均有广泛的应用。传统的高度测量方法是在监视场景中放一个标尺,参照标尺对目标物高度进行估计,这种方法主观性强误差太大,已经逐渐被舍弃。
目前,主要的高度测量方法主要有激光测距、单目视觉测量和双目视觉测量。激光测距的原理可分为两种,一种利用光速和往返时间的计算得到,另一种是依据激光位移传感器原理为基础的方法。激光测距的优势是在任何照明条件下都能够正常使用,同时保证对距离的高度灵敏。但是它也存在不可忽视的缺点,比如成本较高,受到近光调频的干扰,同时对大气和气象的测距条件苛刻;单目测量使用相机,将相机参数和三维场景进行线形转换所获得的参数,来计算目标物体的高度。然而这种方法必须知道相机参数和图片之间的关联性,且需要大量的矩阵计算,对场景的几何要求也较高;双目视觉测量通过两台相机模拟双目,通过拍摄的不同位置的检测物图像进行分析,确定距离。但其精度要受相机性能、光照和基线长度(两台相机之间距离)影响,同时因为算法复杂,所以在应用上会有很多限制。
发明内容
针对现有技术的不足,本发明旨在解决现有高度测量方法存在的所需测距条件苛刻、成本高、精度低、操作繁琐等问题,提出一种基于机器视觉的立定跳远腾空高度测量方法,以期实现对立定跳远高度的测量,减少设备仪器成本,提高鲁棒性和检测准确率。
本发明为解决技术问题采用如下技术方案:
本发明一种基于机器视觉的立定跳远腾空高度量测方法的特点是按如下步骤进行:
步骤一、对固定机位相机采集的立定跳远人体RGB图像信息进行处理,得到人体姿态关键点;
步骤1.1、使用固定机位相机采集不同时间、不同人群的立定跳远人体RGB图像视频;
步骤1.2、采用基于BODY_25模型的OpenPose神经网络模型,从立定跳远人体RGB图像视频中获得人体关键点,通过与标准人体立定跳远动作进行对比,得到立定跳远的n个特征关键点;
步骤二、基于所述立定跳远的n个特征关键点构建主躯干及手臂的姿态向量,包括左臂姿态向量Vleft-hand、右臂姿态向量Vright-hand和主躯干姿态向量Vbody;
步骤三、基于主躯干及手臂的姿态向量,计算一帧图像中主躯干及手臂的偏移角,并作为表征立定跳远起始帧姿态的关键动态量,以判断立定跳远起始帧;
步骤3.1、利用式(1)得到左臂姿态向量Vleft-hand的偏移角θleft-hand:
步骤3.2、利用式(2)得到右臂姿态向量Vright-hand的偏移角θright-hand:
步骤3.3、利用式(3)得到主躯干姿态向量Vbody的偏移角θbody:
若左臂姿态向量Vleft-hand的偏移角θleft-hand或右臂姿态向量Vright-hand的偏移角θright-hand与主躯干姿态向量Vbody的偏移角θbody的夹角α小于夹角阈值τ,且主躯干姿态向量Vbody的偏移角θbody与垂直向量Vvertical的夹角η小于阈值τ时,判定当前帧图像为起始帧;
步骤四、记录起始帧之后,根据主躯干位置变化判断立定跳远动作终止帧;
所述判断起始帧之后,记录每一帧图像中踝部的位置坐标为k,当k在连续多帧内没有变化,则判定相应连续多帧的第一帧为终止帧,并根据终止帧和起始帧截取相应的视频段;
步骤五、检查视频段中每一帧图像的尾椎位置坐标,找到尾椎位置坐标的最高点,并检查所述视频段中是否记录立定跳远腾空最高点,若记录,则执行步骤八,否则执行步骤七;
读取所述视频段中每一帧图像的尾椎位置坐标y,并记录最高点为ymax,检查最高点ymax的前后帧图像是否有缺失,若缺失,则表示未记录立定跳远腾空最高点,并执行步骤六;否则,执行步骤七;
步骤六、记录计算最高点ymax的前一帧图像的尾椎位置坐标ypre和后一帧图像的尾椎位置坐标ynext的误差并判断δ>μ是否成立,若成立,则表示最高点ymax不是立定跳远腾空最高点,并执行步骤七,否则,执行步骤八;其中,μ表示误差阈值;
步骤七、根据每一帧图像的尾椎位置坐标计算出立定跳远过程中的最高点位置;
令第i帧图像的尾椎垂直方向位置坐标为yi,并根据像机的每帧时间间隔k计算出第i帧图像的尾椎垂直方向位置的时间ti,从而得出时间和高度的对应关系;
利用最小二乘法对时间和高度的对应关系进行拟合从而计算出曲线的最高点,记为ymax;
步骤八、令立定跳远腾空最高点为H=ymax。
与已有技术相比,本发明的有益效果体现在:
1、本发明将基于机器视觉获取的骨架关键点数据应用于人体立定跳远腾空高度测量,将视频数据转化为人体骨架序列数据,并根据关键点坐标识别结果计算出腾空高度;相比于传统方法,无需增加额外的设备仪器,大大减少了检测的成本。
2、本发明通过openpose获取的人体姿态关键点数据,不受天气、光照条件、背景等因素的影响,模型的鲁棒性较好。
3、本发明通过计算人体主躯干及手臂的偏移角和躯干与垂直向量偏移角判断起始或终止帧,确保了本方法具有较高的高度距离识别准确率与精确率,具备良好的应用价值。
附图说明
图1为本发明OpenPose检测点位图;
图2为本发明立定跳远腾空高度测量方法的流程图。
具体实施方式
本实施例中,参照图2,一种基于机器视觉的立定跳远腾空高度量测方法,是以摄像机采集图像信息,以人体骨骼关键点坐标表征人体姿态动态特征,以人体主躯干及手臂的偏移角和躯干与垂直向量偏移角作为判断起始或终止帧,以最小拟成法拟合跳跃轨迹得到腾空高度,具体的说,按如下步骤进行:
步骤一、对固定机位相机采集的立定跳远人体RGB图像信息进行处理,得到人体姿态关键点;
步骤1.1、使用固定机位相机采集不同时间、不同人群的立定跳远人体RGB图像视频;
步骤1.2、采用基于BODY_25模型的OpenPose神经网络模型,从立定跳远人体RGB图像视频中获得人体关键点,通过与标准人体立定跳远动作进行对比,得到立定跳远的n个特征关键点。如图1所示,即使用OpenPose获得颈部坐标(1点),尾椎坐标(8点),肩部坐标(3、5点),肘部坐标(4、6点),踝部坐标(11、14点)。
步骤二、基于立定跳远的n个特征关键点构建主躯干及手臂的姿态向量,包括左臂姿态向量Vleft-hand、右臂姿态向量Vright-hand和主躯干姿态向量Vbody;
步骤2.1、利用式(1)构建左臂姿态向量Vleft-hand:
步骤2.2、利用式(2)构建右臂姿态向量Vright-hand:
步骤2.3、利用式(3)构建躯干姿态向量Vbody:
步骤三、基于主躯干及手臂的姿态向量,计算一帧图像中主躯干及手臂的偏移角,并作为表征立定跳远起始帧姿态的关键动态量,以判断立定跳远起始帧;
步骤3.1、利用式(1)得到左臂姿态向量Vleft-hand的偏移角θleft-hand:
步骤3.2、利用式(2)得到右臂姿态向量Vright-hand的偏移角θright-hand:
步骤3.3、利用式(3)得到主躯干姿态向量Vbody的偏移角θbody:
若左臂姿态向量Vleft-hand的偏移角θleft-hand或右臂姿态向量Vright-hand的偏移角θright-hand与主躯干姿态向量Vbody的偏移角θbody的夹角α小于夹角阈值τ,且主躯干姿态向量Vbody的偏移角θbody与垂直向量Vvertical的夹角η小于阈值τ时,判定当前帧图像为起始帧;
步骤四、记录起始帧之后,根据主躯干位置变化判断立定跳远动作终止帧;
判断起始帧之后,记录每一帧图像中踝部的位置坐标为k,当k在连续多帧内没有变化,则判定相应连续多帧的第一帧为终止帧,并根据终止帧和起始帧截取相应的视频段;
步骤五、检查视频段中每一帧图像的尾椎位置坐标,找到尾椎位置坐标的最高点,并检查视频段中是否记录立定跳远腾空最高点,若记录,则执行步骤八,否则执行步骤七;
读取视频段中每一帧图像的尾椎位置坐标y,并记录最高点为ymax,检查最高点ymax的前后帧图像是否有缺失,若缺失,则表示未记录立定跳远腾空最高点,并执行步骤六;否则,执行步骤七;
步骤六、记录计算最高点ymax的前一帧图像的尾椎位置坐标ypre和后一帧图像的尾椎位置坐标ynext的误差并判断δ>μ是否成立,若成立,则表示最高点ymax不是立定跳远腾空最高点,并执行步骤七,否则,执行步骤八;其中,μ表示误差阈值;
步骤七、根据每一帧图像的尾椎位置坐标计算出立定跳远过程中的最高点位置;
设截取视频段总帧数为m,令第i帧图像的尾椎垂直方向位置坐标为yi,并根据像机的每帧时间间隔k计算出第i帧图像的尾椎垂直方向位置的时间ti,从而得出时间和高度的对应关系如表1所示;
表1
i | 1 | 2 | 3 | …… | m |
t<sub>i</sub> | t<sub>1</sub>=k×1 | t<sub>2</sub>=k×2 | t<sub>3</sub>=k×3 | …… | t<sub>m</sub>=k×m |
y<sub>i</sub> | y<sub>1</sub> | y<sub>2</sub> | y<sub>3</sub> | …… | y<sub>m</sub> |
利用最小二乘法对时间和高度的对应关系进行拟合从而计算出曲线的最高点,记为ymax;
步骤八、令立定跳远腾空最高点为H=ymax。
Claims (1)
1.一种基于机器视觉的立定跳远腾空高度量测方法,其特征是按如下步骤进行:
步骤一、对固定机位相机采集的立定跳远人体RGB图像信息进行处理,得到人体姿态关键点;
步骤1.1、使用固定机位相机采集不同时间、不同人群的立定跳远人体RGB图像视频;
步骤1.2、采用基于BODY_25模型的OpenPose神经网络模型,从立定跳远人体RGB图像视频中获得人体关键点,通过与标准人体立定跳远动作进行对比,得到立定跳远的n个特征关键点;
步骤二、基于所述立定跳远的n个特征关键点构建主躯干及手臂的姿态向量,包括左臂姿态向量Vleft-hand、右臂姿态向量Vright-hand和主躯干姿态向量Vbody;
步骤三、基于主躯干及手臂的姿态向量,计算一帧图像中主躯干及手臂的偏移角,并作为表征立定跳远起始帧姿态的关键动态量,以判断立定跳远起始帧;
步骤3.1、利用式(1)得到左臂姿态向量Vleft-hand的偏移角θleft-hand:
步骤3.2、利用式(2)得到右臂姿态向量Vright-hand的偏移角θright-hand:
步骤3.3、利用式(3)得到主躯干姿态向量Vbody的偏移角θbody:
若左臂姿态向量Vleft-hand的偏移角θleft-hand或右臂姿态向量Vright-hand的偏移角θright-hand与主躯干姿态向量Vbody的偏移角θbody的夹角α小于夹角阈值τ,且主躯干姿态向量Vbody的偏移角θbody与垂直向量Vvertical的夹角η小于阈值τ时,判定当前帧图像为起始帧;
步骤四、记录起始帧之后,根据主躯干位置变化判断立定跳远动作终止帧;
所述判断起始帧之后,记录每一帧图像中踝部的位置坐标为k,当k在连续多帧内没有变化,则判定相应连续多帧的第一帧为终止帧,并根据终止帧和起始帧截取相应的视频段;
步骤五、检查视频段中每一帧图像的尾椎位置坐标,找到尾椎位置坐标的最高点,并检查所述视频段中是否记录立定跳远腾空最高点,若记录,则执行步骤八,否则执行步骤七;
读取所述视频段中每一帧图像的尾椎位置坐标y,并记录最高点为ymax,检查最高点ymax的前后帧图像是否有缺失,若缺失,则表示未记录立定跳远腾空最高点,并执行步骤六;否则,执行步骤七;
步骤六、记录计算最高点ymax的前一帧图像的尾椎位置坐标ypre和后一帧图像的尾椎位置坐标ynext的误差并判断δ>μ是否成立,若成立,则表示最高点ymax不是立定跳远腾空最高点,并执行步骤七,否则,执行步骤八;其中,μ表示误差阈值;
步骤七、根据每一帧图像的尾椎位置坐标计算出立定跳远过程中的最高点位置;
令第i帧图像的尾椎垂直方向位置坐标为yi,并根据像机的每帧时间间隔k计算出第i帧图像的尾椎垂直方向位置的时间ti,从而得出时间和高度的对应关系;
利用最小二乘法对时间和高度的对应关系进行拟合从而计算出曲线的最高点,记为ymax;
步骤八、令立定跳远腾空最高点为H=ymax。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110176008.3A CN112966571B (zh) | 2021-02-09 | 2021-02-09 | 一种基于机器视觉的立定跳远腾空高度量测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110176008.3A CN112966571B (zh) | 2021-02-09 | 2021-02-09 | 一种基于机器视觉的立定跳远腾空高度量测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112966571A true CN112966571A (zh) | 2021-06-15 |
CN112966571B CN112966571B (zh) | 2022-07-12 |
Family
ID=76284372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110176008.3A Active CN112966571B (zh) | 2021-02-09 | 2021-02-09 | 一种基于机器视觉的立定跳远腾空高度量测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112966571B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113792719A (zh) * | 2021-11-18 | 2021-12-14 | 成都怡康科技有限公司 | 一种对立定跳远的技术性进行分析的方法及装置 |
CN114120357A (zh) * | 2021-10-22 | 2022-03-01 | 中山大学中山眼科中心 | 一种基于神经网络的防近视方法和装置 |
CN114870385A (zh) * | 2022-05-11 | 2022-08-09 | 安徽理工大学 | 一种基于优化的OpenPose模型的立定跳远测试方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100090931A (ko) * | 2009-02-09 | 2010-08-18 | 장준호 | 제자리 멀리 뛰기 측정 장치 |
CN104200455A (zh) * | 2014-06-13 | 2014-12-10 | 北京工业大学 | 一种基于运动统计特征分析的关键姿态提取方法 |
CN106621284A (zh) * | 2016-12-28 | 2017-05-10 | 湖南科技大学 | 一种智能的体质检测平台 |
CN208081713U (zh) * | 2018-03-29 | 2018-11-13 | 叶洪辉 | 一种体育训练的立定跳远训练器 |
CN109489611A (zh) * | 2018-10-22 | 2019-03-19 | 江苏经贸职业技术学院 | 一种跳远中起跳动作的检测方法和系统 |
CN110975270A (zh) * | 2019-12-20 | 2020-04-10 | 西南交通大学 | 一种基于标记和计算机视觉的立定跳远检测方法 |
CN111104816A (zh) * | 2018-10-25 | 2020-05-05 | 杭州海康威视数字技术股份有限公司 | 一种目标物的姿态识别方法、装置及摄像机 |
WO2020177498A1 (zh) * | 2019-03-04 | 2020-09-10 | 南京邮电大学 | 一种基于姿态估计的非侵入式人体热舒适检测方法及系统 |
CN112115827A (zh) * | 2020-09-09 | 2020-12-22 | 中南大学 | 基于人体姿态动态特征的跌倒行为识别方法 |
-
2021
- 2021-02-09 CN CN202110176008.3A patent/CN112966571B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100090931A (ko) * | 2009-02-09 | 2010-08-18 | 장준호 | 제자리 멀리 뛰기 측정 장치 |
CN104200455A (zh) * | 2014-06-13 | 2014-12-10 | 北京工业大学 | 一种基于运动统计特征分析的关键姿态提取方法 |
CN106621284A (zh) * | 2016-12-28 | 2017-05-10 | 湖南科技大学 | 一种智能的体质检测平台 |
CN208081713U (zh) * | 2018-03-29 | 2018-11-13 | 叶洪辉 | 一种体育训练的立定跳远训练器 |
CN109489611A (zh) * | 2018-10-22 | 2019-03-19 | 江苏经贸职业技术学院 | 一种跳远中起跳动作的检测方法和系统 |
CN111104816A (zh) * | 2018-10-25 | 2020-05-05 | 杭州海康威视数字技术股份有限公司 | 一种目标物的姿态识别方法、装置及摄像机 |
WO2020177498A1 (zh) * | 2019-03-04 | 2020-09-10 | 南京邮电大学 | 一种基于姿态估计的非侵入式人体热舒适检测方法及系统 |
CN110975270A (zh) * | 2019-12-20 | 2020-04-10 | 西南交通大学 | 一种基于标记和计算机视觉的立定跳远检测方法 |
CN112115827A (zh) * | 2020-09-09 | 2020-12-22 | 中南大学 | 基于人体姿态动态特征的跌倒行为识别方法 |
Non-Patent Citations (4)
Title |
---|
EMMANUEL RAMASSO 等: "State Filtering and Change Detection Using TBM Conflict Application to Human Action Recognition in Athletics Videos", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》, vol. 17, no. 7, 2 July 2007 (2007-07-02), pages 944 - 949, XP011186545, DOI: 10.1109/TCSVT.2007.896652 * |
XIAOBAI LIU 等: "Revisiting Jump-Diffusion Process for Visual Tracking: A Reinforcement Learning Approach", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》, vol. 29, no. 8, 3 August 2018 (2018-08-03), pages 2431 - 2441, XP011738134, DOI: 10.1109/TCSVT.2018.2862891 * |
徐华安: "周界低空抛物视频检测技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, vol. 2010, no. 12, 15 December 2010 (2010-12-15), pages 138 - 234 * |
曲瑾: "基于角点检测的目标跟踪算法研究与应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》, vol. 2016, no. 2, 15 February 2016 (2016-02-15), pages 138 - 1382 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114120357A (zh) * | 2021-10-22 | 2022-03-01 | 中山大学中山眼科中心 | 一种基于神经网络的防近视方法和装置 |
CN113792719A (zh) * | 2021-11-18 | 2021-12-14 | 成都怡康科技有限公司 | 一种对立定跳远的技术性进行分析的方法及装置 |
CN114870385A (zh) * | 2022-05-11 | 2022-08-09 | 安徽理工大学 | 一种基于优化的OpenPose模型的立定跳远测试方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112966571B (zh) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966571B (zh) | 一种基于机器视觉的立定跳远腾空高度量测方法 | |
CN104282020B (zh) | 一种基于目标运动轨迹的车辆速度检测方法 | |
CN107392963B (zh) | 一种用于软式自主空中加油的仿鹰眼运动目标定位方法 | |
CN102521560B (zh) | 高鲁棒仪表指针图像识别方法 | |
CN110852283A (zh) | 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法 | |
CN112818988A (zh) | 一种指针式仪表自动识别读数方法及系统 | |
CN107014294A (zh) | 一种基于红外图像的接触网几何参数检测方法及系统 | |
CN105395196B (zh) | Eeg或meg电极在脑mr图像中的定位装置和方法 | |
CN112525352A (zh) | 一种基于人脸识别的红外测温补偿方法及终端 | |
CN110470226A (zh) | 一种基于无人机系统的桥梁结构位移测量方法 | |
CN105957107A (zh) | 行人检测与跟踪方法及装置 | |
CN113688817A (zh) | 一种自动巡检的仪表识别方法及识别系统 | |
CN107917700A (zh) | 基于深度学习的小幅度目标三维姿态角测量方法 | |
CN115717867A (zh) | 一种基于机载双相机和目标追踪的桥梁变形测量方法 | |
CN115760893A (zh) | 一种基于核相关滤波算法的单雾滴粒径和速度测量方法 | |
CN111340884A (zh) | 一种双目异构相机与rfid的双重目标定位与身份辨识方法 | |
CN104063689B (zh) | 一种基于双目立体视觉的人脸图像识别方法 | |
CN117629567A (zh) | 一种高瞬时速度模型姿态角在线测量方法 | |
CN109636856A (zh) | 基于hog特征融合算子的物体六维度位姿信息联合测量方法 | |
CN117237990A (zh) | 群养猪只体重的估测方法、装置、电子设备及存储介质 | |
CN112284509A (zh) | 一种基于手机视频的桥梁结构振型测量方法 | |
CN116310263A (zh) | 一种指针式航空地平仪示数自动读取实现方法 | |
CN109091228A (zh) | 一种多器械光学定位方法及系统 | |
CN109766809B (zh) | 一种改进的人眼检测及跟踪方法 | |
CN113834447A (zh) | 一种户外复杂环境下高动态激光光条自适应成像处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |