CN109657580B - 一种城市轨道交通闸机通行控制方法 - Google Patents

一种城市轨道交通闸机通行控制方法 Download PDF

Info

Publication number
CN109657580B
CN109657580B CN201811501690.3A CN201811501690A CN109657580B CN 109657580 B CN109657580 B CN 109657580B CN 201811501690 A CN201811501690 A CN 201811501690A CN 109657580 B CN109657580 B CN 109657580B
Authority
CN
China
Prior art keywords
gate
camera
model
time
time sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811501690.3A
Other languages
English (en)
Other versions
CN109657580A (zh
Inventor
张宁
徐炜
陆斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Gaomeiji Transportation Technology Co ltd
Original Assignee
Nanjing Gaomeiji Transportation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Gaomeiji Transportation Technology Co ltd filed Critical Nanjing Gaomeiji Transportation Technology Co ltd
Priority to CN201811501690.3A priority Critical patent/CN109657580B/zh
Publication of CN109657580A publication Critical patent/CN109657580A/zh
Application granted granted Critical
Publication of CN109657580B publication Critical patent/CN109657580B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明公开了一种城市轨道交通闸机通行控制方法,通过给定相机视角、相机与闸机通道的距离等参数标定相机监控闸机通道数量,通过棋盘格标定方法标定相机的内外参数,并且进行深度图像在闸机坐标系下的三维重建,标定闸机扇门相对空间位置,然后再按照乘客通行行为对历史监控视频图像数据进行采样处理,在其中检测目标运动区域,针对这些目标运动区域提取运动对象的显著步态特征,并将视频每一帧的步态特征信息组合构建相应的时间序列,最后结合机器学习方法构建、训练并测试时间序列分析模型,实现实时检测、识别并响应乘客的通行行为,有效控制闸机扇门的开闭,提高了识别的精准度。

Description

一种城市轨道交通闸机通行控制方法
所属领域
本发明涉及城市轨道交通智能化技术,具体涉及一种城市轨道交通闸机通行控制方法。
背景技术
自动售检票(Automatic Fare Collection,AFC)系统中,与票卡处理相关的乘客AFC设备包括闸机、自动售票机和票务处理终端,其中闸机最为关键,它是安装于轨道交通车站付费区和非付费区分界处、直接面对乘客、负责检票的一种重要职能设备。闸机通过内部的通行逻辑控制算法对乘客通过闸机通道的行为进行监控和识别,对合法通过的乘客进行检票、在乘客非法通行的情况下阻拦或报警。通行控制算法是闸机的控制中枢,也是闸机在设计和开发过程中要求最高的地方,因而通行控制算法的性能直接影响到闸机检票的正确性和工作效率、影响到乘客对地铁公司的信任和亲善程度以及地铁公司的票务收益。
目前,国内外市场上的闸机应用较广的是采用以16组以上对射式传感器进行通行逻辑控制的常闭模式剪式门/拍打门型闸机,此种闸机通行速度较快,该设计在遵循安全原则、最大通行原则、最大收益原则的基础上,自动检测并控制乘客的正常通行和欺骗行为。但是对于这种通行逻辑控制方法,传感器的数量、传感器的布局、传感器的灵敏度都会影响的算法的执行效果,在算法开发的过程中需要不断调优,且大部分闸机系统设备的价格比较高,经济成本过大,因而急需提供一种更为便捷、准确、简单的交通闸机通行控制方法。
发明内容
本发明正是针对现有技术中的问题,提供了一种城市轨道交通闸机通行控制方法,通过给定相机视角、相机与闸机通道的距离等参数标定相机监控闸机通道数量,通过棋盘格标定方法标定相机的内外参数,并且进行深度图像在闸机坐标系下的三维重建,标定闸机扇门相对空间位置,然后再按照乘客通行行为对历史监控视频图像数据进行采样、剪辑、标定并进行归一化处理;在其中检测目标运动区域,针对这些目标运动区域提取运动对象的显著步态特征,并将视频每一帧的步态特征信息组合构建相应的时间序列,最后结合机器学习方法构建、训练并测试时间序列分析模型,实现实时检测、识别并响应乘客的通行行为,有效控制闸机扇门的开闭,提高了识别的精准度。
为了实现上述目的,本发明采用的技术方案是:一种城市轨道交通闸机通行控制方法,包括如下步骤:
S1,相机闸机安装和监控通道标定:所述相机视角和有效检测距离参数至少满足1个闸机通道的实时监测和监控需求;
S2,相机内外参数标定:所述步骤进一步包括:
S21,求出相机相对于闸机坐标系的外参数矩阵,建立乘客与闸机的空间相对位置坐标关系;
S22,基于棋盘格的单视图标定,通过角点检测提取待标定图像上棋盘格的内点,并且通过角点信息进一步处理获得亚像素级的精确坐标位置;
S23,通过红外光的TOF原理和结构光标定方法,图像或运动对象的深度信息已在相机硬件平台上完成信息处理,相机深度信息获取;
S3,乘客通行行为数据统计:按闸机扇门的开合或报警作为起止点对相机原始视频流进行剪辑,对剪辑后的每一段子视频进行属性标注,建立对应的属性集作为时间序列模型的期望输出参数;
S4,运动区域检测:采用背景差分算法将实时采集RGB-D图像与保存的背景RGB-D图像对应像素点的数值相减,并通过二值化去除冗余信息,提取运动区域:
Di(x,y)=|fi(x,y)-B(x,y)|
其中,(x,y)表示像素点对应的空间坐标;fi(x,y)表示视频当前帧;B(x,y)表示保存的背景图像;
S5,运动对象步态特征提取:通过采用卷积神经网络模型回归预测的方式定位人体上肢关节位置,通过三维空间中关节之间相互依赖的关系对人体关节位置实现精确定位;
S6,时间序列分析模型训练和检验:基于空域注意力子模型和时域注意力子模型的卷积神经网络来搭建时间序列分析模型的基础框架,实现端到端的运动对象步态检测以及动作识别;
S7,实时乘客通行行为检测和识别:提取实时上传的监控视频图像数据当前帧中的各通道人体关节点坐标矩阵,分别输入到训练好的时间序列分析模型中,依据分析模型的输出结果控制闸机的开合以及报警行为。
作为本发明的一种改进,所述步骤S1中,相机视角为≥60°,所述有效检测距离为0.5~10m。
作为本发明的另一种改进,所述步骤S5也可以通过Kinect深度相机内部通过能量图的方式直接输入人体骨架图,所述骨架图最多为6人的。
作为本发明的另一种改进,所述步骤S6进一步包括以ReLU函数、Softplus函数或者双极性Sigmoid函数作为隐藏层神经元的激活函数,加快神经网络模型的收敛性;以Sigmoid函数作为输出层神经元的激活函数,实现相互独立不同属性的识别,以交叉熵(Cross Entropy)或者均方根误差(MSE)作为网络的激活函数,对网络参数进行迭代和优化:所述空域注意力子模型通过卷积神经网络学习自动判别关节的重要程度,所述时域注意力子模型通过卷积神经网络学习自动判别一组时间序列中不同时间段的重要程度,最终实现网络模型分类性能。
与现有技术相比,本发明所产生的有益效果:通过分类的方法实现端到端的乘客通行逻辑识别和控制,使用过程便捷简单,能够实时从监控视频图像中获得识别结果,为闸机扇门控制提供决策方案,结合机器学习方法构建、训练并测试时间序列分析模型,实现实时检测、识别并响应乘客的通行行为,同时及时响应相机参数和分类标签的变化,训练并更新时间序列分析模型的参数,有效控制闸机扇门的开闭,提高了识别的精准度;控制策略的广度和深度具有可扩展性,可以在实验和使用中不断优化和修正;同时,具有可裁剪性,针对不同的使用场景下闸机通行控制可以深度定制;为未来实现常开模式通行控制,做好技术储备,未来通过提高摄像头和处理器的运算性能,可以进一步实现单一摄像头对多组闸机通道的检测和控制、大幅度降低系统搭建的硬件成本;简单的摄像头校准和标定方法(棋盘格标定法)可以迅速响应摄像头的轻微变化,始终保持较高的测量精度,识别和定位精度可达到厘米或亚厘米级。
附图说明
图1为本发明的方法操作流程图;
图2为本发明实施例1棋盘格相机标定方法的示意图;
图3为本发明实施例1基于空域注意力子模型和时域注意力子模型的时间序列分析模型的基础框架。
具体实施方式
以下将结合附图和实施例,对本发明进行较为详细的说明。
实施例1
一种城市轨道交通闸机通行控制方法,如图1所示,包括如下步骤:
S1,相机闸机安装和监控通道标定:所述相机视角为≥60°,有效检测距离为0.5~10m,相机视角和有效检测距离参数至少满足1个闸机通道的实时监测和监控需求,闸机通道监控相机应优先安装在闸机通道的前上方,为未来人脸检测和步态识别技术的应用提供可扩展的空间。未来可通过提高摄像头和处理器的运算性能,可以进一步实现单一摄像头对多组通道的检测和控制、大幅度降低系统的硬件成本。
在前上方安装相机不满足实际检测条件的情况下,可以考虑在闸机通道顶部安装监控相机。
S2,相机内外参数标定:所述步骤进一步包括:
S21,求出相机相对于闸机坐标系的外参数矩阵,建立乘客与闸机的空间相对位置坐标关系,求得如下计算公式中的未知变量:
a.世界坐标系变换为相机坐标系
Figure BDA0001897271190000051
其中,R为待求的旋转矩阵,T为待求的平移矩阵;
b.相机坐标系变换为像平面坐标系
Figure BDA0001897271190000052
其中,f为待求的焦距变量;
c.像平面坐标系变换为像素坐标系
Figure BDA0001897271190000053
其中,dx,dy为待求的感光芯片像素大小,u0,v0为待求的图像平面中心,此外还需考虑相机的切向畸变和径向畸变,这些参数均可由以下自动求出,同时即
Figure BDA0001897271190000054
为三维重建的目标矩阵。
S22,基于棋盘格的单视图标定,通过角点检测提取待标定图像上棋盘格的内点,并且通过角点信息进一步处理获得亚像素级的精确坐标位置;
棋盘格标定法(即张正友标定法)通过角点检测提取待标定图像上棋盘格的内点,并且通过角点信息进一步处理获得亚像素级的精确坐标位置,提高标定的精度,通过相机校准得到的内参矩阵、相机畸变以及外部参数的旋转向量和平移向量。
该标定方法精度较高,直接完成了相机的内、外部参数标定,和三维重建的过程,但需要定制专门的棋盘格标定板,且校准时安放在固定位置,如图2所示。
实现三维重建的相机深度图可以更加直观地反应乘客与闸机坐标系的相对位置关系,即乘客的高度信息,以及乘客处于闸机通道内的位置信息;监控相机的安装位置更加灵活,不需要保持严格的与闸机通道安装位置、旋转角度、俯仰角度关系,具有一定的调整空间;同时,经过三维重建的相机获取的数据为标准化的数据,经过训练后的模型可以在任意的闸机设备上直接使用,无需在安装过程中进行参数调整,也无需重新建立新的训练和测试数据集再次训练。
S23,通过红外光的TOF原理和结构光标定方法,图像或运动对象的深度信息已在相机硬件平台上完成信息处理,不需占用处理平台的运算资源,降低处理器的性能要求,相机深度信息获取;。
此外Kinect深度相机可以直接捕获最多6人的三维人体骨架图,该设备的输出即为识别、标记好的行为特征信息,进一步降低处理器的性能要求。
通过深度相机计算得到的像素点深度信息,其有效距离在0.5-10m范围内,基本满足本发明的设计需要,精度较高,满足闸机设备的安全性需求。
S3,乘客通行行为数据统计:按闸机扇门的关闭或报警对相机原始视频流进行剪辑,对剪辑后的每一段子视频进行属性标注,建立对应的属性集作为时间序列模型的期望输出参数;
S4,运动区域检测:采用背景差分算法将实时采集RGB-D图像与保存的背景RGB-D图像对应像素点的数值相减,并通过二值化去除冗余信息,提取运动区域:
Di(x,y)=lfi(x,y)-B(x,y)|
其中,(x,y)表示像素点对应的空间坐标;fi(x,y)表示视频当前帧;B(x,y)表示保存的背景图像;
S5,运动对象步态特征提取:通过采用卷积神经网络模型回归预测的方式设计人体关节位置,通过三维空间中关节之间相互依赖的关系对人体关节位置实现精确定位;
S6,时间序列分析模型训练和检验:基于空域注意力子模型和时域注意力子模型的卷积神经网络来搭建时间序列分析模型的基础框架,实现端到端的运动对象步态检测以及动作识别。
本实施例采用如图3所示的基于空域注意力子模型和时域注意力子模型的卷积神经网络来搭建时间序列分析模型的基础框架,实现端到端(End-to-End)的运动对象步态检测以及动作识别。以ReLU函数、Softplus函数或者双极性Sigmoid函数作为隐藏层神经元的激活函数,加快神经网络模型的收敛性;以Sigmoid函数作为输出层神经元的激活函数,实现相互独立不同属性的识别,以交叉熵(Cross Entropy)或者均方根误差(MSE)作为网络的激活函数,对网络参数进行迭代和优化。
y=ReLU(x)=max(0,x)
y=Softplus(x)=log(1+ex)
Figure BDA0001897271190000071
Figure BDA0001897271190000072
Figure BDA0001897271190000073
其中,a为神经网络的期望输出,y为神经网络的实际输出。
空域注意力子模型可以通过卷积神经网络学习自动判别关节的重要程度;而时域注意力子模型可以通过卷积神经网络学习自动判别一组时间序列中不同时间段的重要程度。最终实现网络模型分类性能。
验证训练完成后时间序列分析模型在测试数据集上的识别速度、精度、召回率和错误检出率等性能指标,检验模型是否满足实际应用需求。
S7,实时乘客通行行为检测和识别:提取实时上传的监控视频图像数据当前帧中的各通道人体关节点坐标矩阵,分别输入到训练好的时间序列分析模型中,依据分析模型的输出结果控制闸机的开合以及报警行为。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实例的限制,上述实例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等同物界定。

Claims (3)

1.一种城市轨道交通闸机通行控制方法,其特征在于:包括如下步骤:
S1,相机闸机安装和监控通道标定:所述相机视角和有效检测距离参数至少满足1个闸机通道的实时监测和监控需求;
S2,相机内外参数标定:所述步骤进一步包括:
S21,求出相机相对于闸机坐标系的外参数矩阵,建立乘客与闸机的空间相对位置坐标关系;
S22,基于棋盘格的单视图标定,通过角点检测提取待标定图像上棋盘格的内点,并且通过角点信息进一步处理获得亚像素级的精确坐标位置;
S23,通过红外光的TOF原理或结构光标定方法,图像或运动对象的深度信息已在相机硬件平台上完成信息处理,相机深度信息获取;
S3,乘客通行行为数据统计:按闸机扇门的开合或报警作为起止点对相机原始视频流进行剪辑,对剪辑后的每一段子视频进行属性标注,建立对应的属性集作为时间序列模型的期望输出参数;
S4,运动区域检测:采用背景差分算法将实时采集RGB-D图像与保存的背景RGB-D图像对应像素点的数值相减,并通过二值化去除冗余信息,提取运动区域:
Di(x,y)=|fi(x,y)-B(x,y)|
其中,(x,y)表示像素点对应的空间坐标;fi(x,y)表示视频当前帧;B(x,y)表示保存的背景图像;
S5,运动对象步态特征提取:通过采用卷积神经网络模型回归预测的方式设计人体关节位置,通过三维空间中关节之间相互依赖的关系对人体关节位置实现精确定位;
S6,时间序列分析模型训练和检验:基于空域注意力子模型和时域注意力子模型的卷积神经网络来搭建时间序列分析模型的基础框架,实现端到端的运动对象步态检测以及动作识别;本步骤包括以ReLU函数、Softplus函数或者双极性Sigmoid函数作为隐藏层神经元的激活函数,加快神经网络模型的收敛性;以Sigmoid函数作为输出层神经元的激活函数,实现相互独立不同属性的识别,以交叉熵Cross Entropy或者均方根误差MSE作为网络的激活函数,对网络参数进行迭代和优化:所述空域注意力子模型通过卷积神经网络学习自动判别关节的重要程度,所述时域注意力子模型通过卷积神经网络学习自动判别一组时间序列中不同时间段的重要程度,最终实现网络模型分类性能;
S7,实时乘客通行行为检测和识别:提取实时上传的监控视频图像数据当前帧中的各通道人体关节点坐标矩阵,分别输入到训练好的时间序列分析模型中,依据分析模型的输出结果控制闸机的开合以及报警行为。
2.根据权利要求1所述的一种城市轨道交通闸机通行控制方法,其特征在于:所述步骤S1中,相机视角为≥60°,所述有效检测距离为0.5~10m。
3.根据权利要求2所述的一种城市轨道交通闸机通行控制方法,其特征在于所述步骤S5也可以通过Kinect深度相机内部通过能量图的方式直接输入人体骨架图,所述骨架图最多为6人的。
CN201811501690.3A 2018-12-07 2018-12-07 一种城市轨道交通闸机通行控制方法 Active CN109657580B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811501690.3A CN109657580B (zh) 2018-12-07 2018-12-07 一种城市轨道交通闸机通行控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811501690.3A CN109657580B (zh) 2018-12-07 2018-12-07 一种城市轨道交通闸机通行控制方法

Publications (2)

Publication Number Publication Date
CN109657580A CN109657580A (zh) 2019-04-19
CN109657580B true CN109657580B (zh) 2023-06-16

Family

ID=66113898

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811501690.3A Active CN109657580B (zh) 2018-12-07 2018-12-07 一种城市轨道交通闸机通行控制方法

Country Status (1)

Country Link
CN (1) CN109657580B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111667583B (zh) * 2020-05-18 2021-04-23 深圳市罗拉智能科技有限公司 一种基于闸机的智能通行验证系统
CN111784885B (zh) * 2020-06-17 2023-06-27 杭州海康威视数字技术股份有限公司 通行控制方法、装置、闸机设备及多闸机系统
CN113781578B (zh) * 2021-09-09 2024-05-28 南京康尼电子科技有限公司 结合目标检测与双目视觉的闸机通行行为识别与控制方法
CN114333123B (zh) * 2021-12-13 2024-08-16 南京熊猫电子股份有限公司 基于激光测距元件组的闸机通行检测方法、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102697508A (zh) * 2012-04-23 2012-10-03 中国人民解放军国防科学技术大学 采用单目视觉的三维重建来进行步态识别的方法
CN105787469A (zh) * 2016-03-25 2016-07-20 广州市浩云安防科技股份有限公司 行人监控和行为识别的方法和系统
CN106780592A (zh) * 2016-06-30 2017-05-31 华南理工大学 基于相机运动和图像明暗的Kinect深度重建算法
CN108470361A (zh) * 2017-02-23 2018-08-31 南宁市富久信息技术有限公司 一种角点自动识别相机标定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102697508A (zh) * 2012-04-23 2012-10-03 中国人民解放军国防科学技术大学 采用单目视觉的三维重建来进行步态识别的方法
CN105787469A (zh) * 2016-03-25 2016-07-20 广州市浩云安防科技股份有限公司 行人监控和行为识别的方法和系统
CN106780592A (zh) * 2016-06-30 2017-05-31 华南理工大学 基于相机运动和图像明暗的Kinect深度重建算法
CN108470361A (zh) * 2017-02-23 2018-08-31 南宁市富久信息技术有限公司 一种角点自动识别相机标定方法

Also Published As

Publication number Publication date
CN109657580A (zh) 2019-04-19

Similar Documents

Publication Publication Date Title
CN109657580B (zh) 一种城市轨道交通闸机通行控制方法
CN110781838B (zh) 一种复杂场景下行人的多模态轨迹预测方法
CN109657581B (zh) 基于双目相机行为检测的城市轨道交通闸机通行控制方法
KR101607224B1 (ko) 동적 물체 분류 방법 및 장치
CN106228125B (zh) 基于集成学习级联分类器的车道线检测方法
US20230222844A1 (en) Parking lot management and control method based on object activity prediction, and electronic device
CN106127204A (zh) 一种全卷积神经网络的多方向水表读数区域检测算法
CN109543627A (zh) 一种判断驾驶行为类别的方法、装置、及计算机设备
CN109961460A (zh) 一种基于改进YOLOv3模型的多目标巡检方法
CN107229929A (zh) 一种基于r‑cnn的车牌定位方法
CN105512640A (zh) 一种基于视频序列的人流量统计方法
WO2004042673A2 (en) Automatic, real time and complete identification of vehicles
CN111079640A (zh) 一种基于自动扩增样本的车型识别方法及系统
CN113158913A (zh) 一种人脸口罩佩戴识别方法、系统及终端
CN113160465A (zh) 一种完全免接触式安全闸机系统及其管理方法
CN110189355A (zh) 安全疏散通道占用检测方法、装置、电子设备及存储介质
CN110287798B (zh) 基于特征模块化和上下文融合的矢量网络行人检测方法
KR20140067604A (ko) 상황 인식 기반의 객체 검출, 인식 및 추적 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
Khosravi et al. Crowd emotion prediction for human-vehicle interaction through modified transfer learning and fuzzy logic ranking
CN106156695A (zh) 出口和/或入口区域识别方法和装置
US11928813B2 (en) Method and system for detecting change to structure by using drone
Hu et al. Building occupancy detection and localization using CCTV camera and deep learning
WO2023093086A1 (zh) 目标跟踪及相关模型的训练方法、装置、设备、介质、计算机程序产品
CN111667583B (zh) 一种基于闸机的智能通行验证系统
CN108416632B (zh) 一种动态视频的识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant