CN116677287A - 一种自动感应式电动伸缩门 - Google Patents

一种自动感应式电动伸缩门 Download PDF

Info

Publication number
CN116677287A
CN116677287A CN202310668911.0A CN202310668911A CN116677287A CN 116677287 A CN116677287 A CN 116677287A CN 202310668911 A CN202310668911 A CN 202310668911A CN 116677287 A CN116677287 A CN 116677287A
Authority
CN
China
Prior art keywords
door
face
module
vehicle
electric telescopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202310668911.0A
Other languages
English (en)
Inventor
韩四新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangzhou Weigong Network Co ltd
Original Assignee
Yangzhou Weigong Network Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangzhou Weigong Network Co ltd filed Critical Yangzhou Weigong Network Co ltd
Priority to CN202310668911.0A priority Critical patent/CN116677287A/zh
Publication of CN116677287A publication Critical patent/CN116677287A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/40Safety devices, e.g. detection of obstructions or end positions
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/60Power-operated mechanisms for wings using electrical actuators
    • E05F15/603Power-operated mechanisms for wings using electrical actuators using rotary electromotors
    • E05F15/605Power-operated mechanisms for wings using electrical actuators using rotary electromotors for folding wings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • E05F2015/767Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects using cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于伸缩门技术领域,具体是一种自动感应式电动伸缩门,包括电动伸缩门主体,驱动器模块,传感器模块,摄像头模块,控制器模块,显示器模块,存储器模块和通信模块,本发明所具有的有益效果是通过实时检测和报警功能,可以提高安全性,防止陌生人的闯入或恶意破坏;通过机械学习和适配度分析功能,可以提高准确性,避免误判或漏判的情况;通过综合判断和全面评估功能,可以提高灵活性,适应不同的场景和需求;通过调速控制和宽度判断功能,可以提高效率,节省时间和空间;通过数据存储和交换功能,可以提高可靠性,方便管理和监督。

Description

一种自动感应式电动伸缩门
技术领域
本发明涉及伸缩门技术领域,具体涉及一种自动感应式电动伸缩门。
背景技术
随着经济和科技的快速发展,工业园区的数量也在逐步增多,而在工业园区中尤为重要的是工业园区的安防工作,由于工业园区出入口来往人员复杂且人流量较多,因此在工业园区的安防工作中,出入口的车辆门禁控制极为重要,电动伸缩门由于具有形象美观、使用寿命长和操作简单等优点,进而电动伸缩门在工业园区的出入口布设频率在逐步升高,但是,如若电动伸缩门的控制不当,不仅会给工业园区内部人员的出行带来不便,也会影响工业园区的管理。
在相关技术中,现有的电动伸缩门控制在开门控制方面大多是匀速且是安保人员人为判断需要开门的宽度,一方面无法根据驶入车辆距电动伸缩门的距离进行调速控制,进而可能存在驶入车辆距电动伸缩门很近但是电动伸缩门还在以设定的速度打开的现象,进而可能会影响驶入车辆进入工业园区的效率,容易造成交通堵塞,另一方面由安保人员判断需要开门的宽度,可能存在判断偏差,进而出现开门的宽度较大或者较小的情况,当开门的宽度较大时,会增加电动伸缩门的开门时长,进而降低了电动伸缩门的开门效率,当开门的宽度较小时,可能会出现驶入车辆刮蹭的或者需要二次开门的问题,进而有可能给驶入车辆的车主带来损失,也有可能降低电动伸缩门的效率,同时,现有的电动伸缩门控制大多是根据驶入车辆的车牌判断预计驶入车辆是否可以进入工业园区,分析维度比较单一,可能存在预计驶入车辆车牌未录入系统但是预计驶入车辆内人员是工业园区的工作人员或者与工业园区来往密切的合作客户的现象,但这种情况下电动伸缩门不执行开门操作,可能需要安保人员进一步确认才执行开门操作,降低了预计驶入车辆进入工业园区的精准性,为此,我们提出一种自动感应式电动伸缩门。
本背景技术部分中公开的以上信息仅用于理解本发明构思的背景技术,并且因此,它可以包含不构成现有技术的信息。
发明内容
为了克服现有技术的不足,本发明提供了一种自动感应式电动伸缩门以解决上述背景技术中提出的现有的电动伸缩门控制在开门控制方面大多是匀速且是安保人员人为判断需要开门的宽度,一方面无法根据驶入车辆距电动伸缩门的距离进行调速控制,进而可能存在驶入车辆距电动伸缩门很近但是电动伸缩门还在以设定的速度打开的现象,进而可能会影响驶入车辆进入工业园区的效率,容易造成交通堵塞,另一方面由安保人员判断需要开门的宽度,可能存在判断偏差,进而出现开门的宽度较大或者较小的情况,当开门的宽度较大时,会增加电动伸缩门的开门时长,进而降低了电动伸缩门的开门效率,当开门的宽度较小时,可能会出现驶入车辆刮蹭的或者需要二次开门的问题,进而有可能给驶入车辆的车主带来损失,也有可能降低电动伸缩门的效率,同时,现有的电动伸缩门控制大多是根据驶入车辆的车牌判断预计驶入车辆是否可以进入工业园区,分析维度比较单一,可能存在预计驶入车辆车牌未录入系统但是预计驶入车辆内人员是工业园区的工作人员或者与工业园区来往密切的合作客户的现象,但这种情况下电动伸缩门不执行开门操作,可能需要安保人员进一步确认才执行开门操作,降低了预计驶入车辆进入工业园区的精准性的问题。
本发明解决其技术问题所采用的技术方案是:一种自动感应式电动伸缩门,包括:
电动伸缩门主体,所述电动伸缩门主体由若干个可相互连接和分离的门板组成;
驱动器模块,所述驱动器模块控制电动伸缩门主体的工作,实现电动伸缩门主体的开启和关闭;
传感器模块,包括多个传感器,安装在电动伸缩门主体上;
摄像头模块,所述摄像头模块安装在电动伸缩门主体的上方或侧方,用于拍摄伸缩门前端区域内的人脸或者车牌图像;
控制器模块,所述控制器模块与电动伸缩门主体和摄像头模块相连,用于接收传感器和摄像头模块的信号,并根据预设的算法和规则,控制驱动器模块的工作,检测到陌生人时,会进行报警;
显示器模块,所述显示器模块与控制器模块相连,用于显示控制器模块的输出信息,包括开门指令、报警信息、识别结果;
存储器模块,所述储存器与控制器模块相连,用于存储控制器模块的输入和输出数据,包括人脸或者车牌图像、识别结果、开门记录;
通信模块,所述通信模块与控制器模块相连,用于与外部设备或系统进行数据交换,包括安保中心、数据库、云端平台。
作为一种优化的技术方案,所述检测到陌生人进行报警的具体方法是,
首先,我们需要导入一些必要的库,这些库提供了一些功能和方法,方便我们进行人脸识别和眨眼检测等操作,接下来,我们需要加载训练集,也就是之前通过训练样本生成的分类器模型文件(.yml格式),然后,我们需要使用摄像头,并设置视频的宽度和高度,接下来,我们需要定义一个眨眼检测函数,它可以根据人脸特征点计算出眼睛的长宽比(EAR),并根据EAR的阈值和连续帧数来判断是否发生了眨眼动作,同时,也需要定义一个嘴巴检测函数,它可以根据人脸特征点计算出嘴巴的长宽比(MAR),并根据MAR的阈值和连续帧数来判断是否发生了打哈欠动作,之后,我们需要循环地从摄像头获取图像,并进行人脸识别和眨眼检测操作,对于每个检测到的人脸区域,我们使用OpenCV提供的rectangle()方法在原始图像上绘制一个绿色的矩形框,并传入一些参数,如左上角坐标、右下角坐标、颜色、线宽等,然后,我们使用OpenCV提供的predict()方法对灰度图像中的人脸区域进行人脸识别,进行置信度分析,置信度低于阈值,判断为陌生人,进行报警。
作为一种优化的技术方案,所述通讯模块与外部设备或系统进行数据交换,具体方法为,
首先,需要选择合适的通讯协议,根据不同的数据源和目标设备的特点,选择最适合的通讯方式,然后,需要使用通讯模块来实现通讯协议,根据不同的通讯协议,选择相应的硬件和软件来实现数据的发送和接收,最后,需要使用数据交换平台来管理和监控数据交换过程,根据不同的数据源和目标设备的特点,选择最适合的数据交换方式。
作为一种优化的技术方案,所述电动伸缩门可以对进入园区内的人脸或者车牌进行机械学习,自动完善车牌或者人脸信息,方法为,
首先,需要使用摄像头捕捉进入园区内的人脸或者车牌的图像,并使用人脸识别或者车牌识别的算法,比如LBPH、Eigenfaces、Fisherfaces等,对图像中的人脸或者车牌进行检测和识别,当用户提供一张人脸或者车牌图像时,可以使用分类器模型检测人脸或者车牌,然后使用OpenCV提供的人脸识别或者车牌识别算法对人脸或者车牌进行识别,如果识别结果与存储器模块中的数据匹配,就可以直接开门放行,如果识别结果与存储器模块中的数据不匹配,或者低于某个阈值,就可以判断为陌生人脸或者陌生车牌,并向显示器模块发送报警信息,然后,使用深度学习的方法来对每天进入园区内的人脸或者车牌进行机器学习,自动完善车牌或者人脸信息。
作为一种优化的技术方案,所述控制器模块根据预计驶入车辆距电动伸缩门的距离进行调速控制且根据预计驶入车辆的宽度判断需要开门的宽度,方法为,
首先,需要使用单目摄像头捕捉前方车辆的图像,并使用人脸识别的算法,比如LBPH、Eigenfaces、Fisherfaces等,对图像中的车辆进行检测和识别,当用户提供一张车辆图像时,可以使用分类器模型检测车辆,然后使用OpenCV提供的人脸识别算法对车辆进行识别,如果识别结果与存储器模块中的数据不匹配,或者低于某个阈值,就可以判断为陌生车辆,并向显示器模块发送报警信息,然后,使用光流的方法来估计车辆的速度和距离,接下来,需要使用已知的摄像头参数和几何关系来计算车辆距电动伸缩门的距离和宽度,假设摄像头的焦距为F,摄像头与地面的高度为H,摄像头与地面的夹角为θ,摄像头与电动伸缩门之间的水平距离为L,车辆在图像中的宽度为w,车辆在实际中的宽度为W,则可以根据以下公式计算出车辆距电动伸缩门的距离d和宽度W:
最后,需要根据车辆距电动伸缩门的距离d和速度v来调节电动伸缩门的开启速度s和开启宽度w。假设电动伸缩门每次开启或关闭都需要一个固定时间t,则可以根据以下公式计算出电动伸缩门的开启速度s和开启宽度w,
w=W+2δ
其中,δ是一个安全裕量。
作为一种优化的技术方案,所述流光的估计方法为RAFT,具体步骤为,
A1、特征提取:使用一个特征编码器和一个上下文编码器,分别提取两幅图像的特征和第一幅图像的上下文信息,特征编码器和上下文编码器共享权重,并且只在第一次迭代时使用。
A2、相似性计算:使用点积操作,计算两幅图像特征之间的相关空间,即每个像素对之间的相似度,为了处理不同尺度的运动,使用池化操作构建四层相关空间金字塔。
A3、迭代更新:使用一个基于GRU的循环更新算子,根据当前的光流场,在相关空间金字塔中查找相应的区域,并将其与上下文信息和光流特征拼接起来,作为GRU的输入,这个过程重复多次,直到收敛或达到最大迭代次数。
作为一种优化的技术方案,所述流光估计的方法还需要配合基于深度神经网络的方法,来将光流向量从二维的像素坐标投影带三维的世界坐标系中,具体步骤为,
首先,使用RAFT网络从两幅图像中计算出每个像素的光流向量,光流向量表示了图像中每个像素在两幅图像之间的运动位移,可以用来推断物体的相对速度和方向,然后,使用一个深度神经网络从两幅图像中预测出每个像素的深度信息,深度神经网络可以是一个卷积神经网络或者一个双目神经网络,根据输入图像的类型而定,最后,使用相机内参和深度信息将每个像素的光流向量从二维的像素坐标投影到三维的世界坐标系中,假设相机内参矩阵为K=[fx0c x;0fy c y;001],其中fx和fy是焦距,c x和c y是主点坐标,假设两幅图像中对应的像素点为p 1=[u 1,v 1,1]T和p 2=[u 2,v 2,1]T,其中u和v是水平和垂直方向上的坐标,假设这两个点对应的世界坐标为P1=[X 1,Y 1,Z 1]T和P 2=[X 2,Y 2,Z 2]T,其中X,Y和Z是水平、垂直和深度方向上的坐标,那么,根据针孔相机模型,有以下关系:
p 1=KP 1/Z 1
p 2=KP 2/Z 2
其中/表示逐元素除法,由此可以解出P1和P 2,如果已知K和Z1和Z 2,然后,可以计算出光流向量在世界坐标系中的表示:
F=P 2-P 1
其中F=[F X,F Y,F Z]T是光流向量在世界坐标系中的表示,F X,FY和F Z分别表示水平、垂直和深度方向上的运动位移。
作为一种优化的技术方案,所述电动伸缩门还包括地感检测器和地感线圈,用于车辆行过自动关门和防夹功能。
本发明所具有的有益效果是:
通过实时检测和报警功能,可以提高安全性,防止陌生人的闯入或恶意破坏;通过机械学习和适配度分析功能,可以提高准确性,避免误判或漏判的情况;通过综合判断和全面评估功能,可以提高灵活性,适应不同的场景和需求;通过调速控制和宽度判断功能,可以提高效率,节省时间和空间;通过数据存储和交换功能,可以提高可靠性,方便管理和监督。
附图说明
图1是本发明提供的一种自动感应式电动伸缩门的连接框图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
实施例1:
本实施例中的一种自动感应式电动伸缩门,包括:
电动伸缩门主体,电动伸缩门主体由若干个可相互连接和分离的门板组成;
驱动器模块,所述驱动器模块控制电动伸缩门主体的工作,实现电动伸缩门主体的开启和关闭;
传感器模块,包括多个传感器,安装在电动伸缩门主体上;
摄像头模块,摄像头模块安装在电动伸缩门主体的上方或侧方,用于拍摄伸缩门前端区域内的人脸或者车牌图像;
控制器模块,控制器模块与电动伸缩门主体和摄像头模块相连,用于接收传感器和摄像头模块的信号,并根据预设的算法和规则,控制驱动器模块的工作,检测到陌生人时,会进行报警;
显示器模块,显示器模块与控制器模块相连,用于显示控制器模块的输出信息,包括开门指令、报警信息、识别结果;
存储器模块,储存器与控制器模块相连,用于存储控制器模块的输入和输出数据,包括人脸或者车牌图像、识别结果、开门记录;
通信模块,通信模块与控制器模块相连,用于与外部设备或系统进行数据交换,包括安保中心、数据库、云端平台。
作为一种优化的技术方案,检测到陌生人进行报警的具体方法是,
首先,我们需要导入一些必要的库,这些库提供了一些功能和方法,方便我们进行人脸识别和眨眼检测等操作。具体的库有:
cv2:这是OpenCV的Python接口,它是一个开源的计算机视觉库,提供了很多图像处理和机器学习的算法和工具;
numpy:这是一个科学计算的库,它提供了高效的多维数组和矩阵运算等功能;
os:这是一个操作系统接口的库,它提供了一些与文件系统和环境变量等相关的功能;
urllib:这是一个用于处理URL的库,它提供了一些与网络请求和响应等相关的功能;
hashlib:这是一个用于生成哈希值的库,它提供了一些常见的哈希算法,如MD5、SHA1等;
scipy:这是一个科学计算的库,它提供了一些数学、统计、优化等方面的功能;
distance:这是scipy中的一个子模块,它提供了一些计算距离的函数,如欧氏距离、曼哈顿距离等;
OrderedDict:这是collections中的一个子模块,它提供了一个有序字典的类,它可以记住字典中元素的插入顺序;
argparse:这是一个用于解析命令行参数和选项的库,它可以方便地生成帮助信息和错误提示等;
time:这是一个用于处理时间相关的库,它提供了一些获取当前时间、格式化时间、延时等功能;
dlib:这是一个机器学习和计算机视觉的库,它提供了一些人脸检测和特征点定位等功能,
接下来,我们需要加载训练集,也就是之前通过训练样本生成的分类器模型文件(.yml格式)。这个文件包含了人脸识别所需要的信息,如人脸特征、标签等。我们使用OpenCV提供的LBPHFaceRecognizer_create()方法创建一个人脸识别器对象,并使用read()方法读取训练集文件。我们还需要定义一个空列表names来存储人脸对应的名字。另外,我们还需要加载shape_predictor_68_face_landmarks.dat文件,这个文件是dlib提供的一个预训练好的人脸特征点检测器,它可以检测出人脸上68个特征点(如眼睛、鼻子、嘴巴等),我们可以利用这些特征点来进行眨眼检测等操作,然后,我们需要使用摄像头,并设置视频的宽度和高度。我们使用OpenCV提供的VideoCapture()方法创建一个视频捕捉对象,并传入0作为参数表示使用默认摄像头。我们还可以使用set()方法设置视频捕捉对象的属性,如3表示宽度,4表示高度。我们还需要定义最小窗口大小以进行人脸检测,我们可以根据视频捕捉对象获取到的视频宽度和高度来计算出最小窗口大小,接下来,我们需要定义一个眨眼检测函数,它可以根据人脸特征点计算出眼睛的长宽比(EAR),并根据EAR的阈值和连续帧数来判断是否发生了眨眼动作。我们使用dlib提供的shape_predictor()方法创建一个特征点检测器对象,并传入shape_predictor_68_face_landmarks.dat文件作为参数。我们还需要定义两个常数,一个用于眼睛纵横比以指示眨眼,然后定义当EAR小于阈值时必须连续多少帧才能进行眨眼动作判断。我们还需要初始化帧计数器和眨眼总数,我们定义一个eye_aspect_ratio()函数,它接受一个参数eye,表示一只眼睛的特征点坐标(一个6元素的列表)。我们可以使用scipy提供的euclidean()函数计算两组垂直眼睛标志(x,y)-坐标之间的欧氏距离,以及水平之间的欧氏距离。然后,我们可以根据公式计算出眼睛的长宽比,并返回这个值,类似地,我们也需要定义一个嘴巴检测函数,它可以根据人脸特征点计算出嘴巴的长宽比(MAR),并根据MAR的阈值和连续帧数来判断是否发生了打哈欠动作。我们也需要定义两个常数,一个用于嘴巴纵横比以指示打哈欠,然后定义当MAR大于阈值时必须连续多少帧才能进行打哈欠动作判断。我们还需要初始化帧计数器和打哈欠总数。我们定义一个mouth_aspect_ratio()函数,它接受一个参数mouth,表示嘴巴的特征点坐标(一个12元素的列表)。我们也可以使用scipy提供的euclidean()函数计算两组垂直嘴巴标志(x,y)-坐标之间的欧氏距离,以及水平之间的欧氏距离。然后,我们也可以根据公式计算出嘴巴的长宽比,并返回这个值,最后,我们需要循环地从摄像头获取图像,并进行人脸识别和眨眼检测等操作。我们使用OpenCV提供的read()方法从视频捕捉对象中读取一帧图像,并将其转换为灰度图像。然后,我们使用OpenCV提供的CascadeClassifier()方法创建一个人脸检测器对象,并传入haarcascade_frontalface_alt2.xml文件作为参数。这个文件是OpenCV提供的一个预训练好的人脸检测器,它可以检测出图像中的人脸区域。我们使用detectMultiScale()方法对灰度图像进行人脸检测,并传入一些参数,如缩放因子、最小邻居数、最小窗口大小等。这个方法会返回一个列表,每个元素是一个表示人脸区域的矩形框(x,y,w,h)。对于每个检测到的人脸区域,我们使用OpenCV提供的rectangle()方法在原始图像上绘制一个绿色的矩形框,并传入一些参数,如左上角坐标、右下角坐标、颜色、线宽等。然后,我们使用OpenCV提供的predict()方法对灰度图像中的人脸区域进行人脸识别,并传入左上角坐标和右下角坐标作为参数,这个方法会返回两个值,一个是标签,表示识别出的人脸对应的名字,一个是置信度,表示识别的可靠程度。我们使用names列表中的标签作为人脸的名字,并使用OpenCV提供的putText()方法在原始图像上绘制一个白色的文本框,并传入一些参数,如文本内容、位置、字体、大小、颜色、线宽等,接下来,我们使用dlib提供的get_frontal_face_detector()方法创建一个人脸检测器对象,并使用__call__()方法对灰度图像进行人脸检测,并传入一些参数,如上下采样比例等。这个方法会返回一个列表,每个元素是一个表示人脸区域的矩形框(left,top,right,bottom)。我们使用第一个检测到的人脸区域作为目标人脸,并使用dlib提供的shape_predictor()方法对目标人脸进行特征点检测,并传入目标人脸的矩形框作为参数。这个方法会返回一个包含68个特征点坐标的对象,然后,我们使用numpy提供的array()方法将特征点坐标转换为数组,并根据特征点的索引分别获取左眼、右眼和嘴巴的特征点坐标。我们使用eye_aspect_ratio()函数和mouth_aspect_ratio()函数分别计算左眼、右眼和嘴巴的长宽比,并打印出来。我们还使用OpenCV提供的circle()方法在原始图像上绘制一些红色的圆点,表示特征点的位置,并传入一些参数,如圆心坐标、半径、颜色、线宽等,接下来,我们需要判断是否发生了眨眼或者打哈欠动作。我们首先判断左眼或者右眼的长宽比是否小于预设的阈值,如果是,则表示眼睛闭合,我们将帧计数器加一;如果不是,则表示眼睛睁开,我们判断帧计数器是否大于预设的连续帧数,如果是,则表示发生了一次眨眼动作,我们将眨眼总数加一,并在原始图像上绘制一个黄色的文本框,显示眨眼总数;如果不是,则表示没有发生眨眼动作,我们将帧计数器归零。类似地,我们也判断嘴巴的长宽比是否大于预设的阈值,如果是,则表示嘴巴张开,我们将帧计数器加一;如果不是,则表示嘴巴闭合,我们判断帧计数器是否大于预设的连续帧数,如果是,则表示发生了一次打哈欠动作,我们将打哈欠总数加一,并在原始图像上绘制一个黄色的文本框,显示打哈欠总数;如果不是,则表示没有发生打哈欠动作,我们将帧计数器归零。最后,我们使用OpenCV提供的imshow()方法显示原始图像,并传入窗口名称和图像数据作为参数。我们还使用waitKey()方法等待用户按键,并传入延时时间作为参数。如果用户按下q键,则退出循环并释放视频捕捉对象和关闭窗口,实现对人物面部的精准分析,当置信度低于阈值时,判断为陌生人,并进行报警。
作为一种优化的技术方案,首先,需要选择合适的通讯协议,根据不同的数据源和目标设备的特点,选择最适合的通讯方式。通讯协议是指在数据交换过程中,各个设备遵循的一套规则和约定,包括数据格式、传输速率、时序控制、错误检测等。常见的通讯协议有SPI、I2C、UART、RS485等。然后,需要使用通讯模块来实现通讯协议,根据不同的通讯协议,选择相应的硬件和软件来实现数据的发送和接收。通讯模块是指能够实现特定通讯协议的电路板或者芯片,它可以与外部设备或者系统通过一定的接口进行连接,如串口、网口、无线模块等。通讯模块可以根据需要进行配置和编程,以适应不同的数据交换需求。最后,需要使用数据交换平台来管理和监控数据交换过程,根据不同的数据源和目标设备的特点,选择最适合的数据交换方式。数据交换平台是指能够实现数据采集、元数据管理、数据转换、数据路由、数据适配、数据监控和安全管理等功能的软件系统,它可以与多个异构的外部设备或者系统进行数据交换,并提供可视化的操作界面和管理服务。
作为一种优化的技术方案,电动伸缩门可以对进入园区内的人脸或者车牌进行机械学习,自动完善车牌或者人脸信息,方法为,
首先,需要使用摄像头捕捉进入园区内的人脸或者车牌的图像,并使用人脸识别或者车牌识别的算法,比如LBPH、Eigenfaces、Fisherfaces等,对图像中的人脸或者车牌进行检测和识别。这些算法可以通过训练样本识别人脸或者车牌并生成分类器模型。当用户提供一张人脸或者车牌图像时,可以使用分类器模型检测人脸或者车牌,然后使用OpenCV提供的人脸识别或者车牌识别算法对人脸或者车牌进行识别。如果识别结果与存储器模块中的数据匹配,就可以直接开门放行。如果识别结果与存储器模块中的数据不匹配,或者低于某个阈值,就可以判断为陌生人脸或者陌生车牌,并向显示器模块发送报警信息。
然后,需要使用深度学习的方法来对每天进入园区内的人脸或者车牌进行机器学习,自动完善车牌或者人脸信息。深度学习是一种基于多层神经网络的机器学习技术,它可以从大量的数据中自动提取特征和规律,并进行分类、回归、聚类等任务。深度学习在图像识别领域有着广泛的应用和优异的性能。例如,CNN是一种卷积神经网络,它可以利用卷积层、池化层、全连接层等结构来处理图像数据,并提取高层次的语义特征。我们可以使用CNN来对人脸或者车牌图像进行特征提取,并使用全连接层或者softmax层来进行分类或者回归。我们还可以使用一些预训练好的CNN,对于一张车牌的每个字符,我们可以使用LPRNet来预测每个字符。LPRNet是一种端到端的深度神经网络,它可以直接从车牌图像中输出字符序列,而不需要先进行字符分割。LPRNet的特点是使用了空间变换层(SpatialTransformer Layer)来处理车牌的倾斜、旋转、缩放等变形,以及使用了CTC损失函数(Connectionist Temporal Classification Loss)来处理字符序列的对齐问题。在使用LPRNet之前,我们需要对车牌图像进行一些预处理,包括裁剪、灰度化、归一化等。我们还需要准备一个字符字典,用于将字符编码为数字,以及将数字解码为字符,LPRNet的输入是24x94的灰度图像,输出是68x18的张量,其中68是字符字典的大小(包括汉字、字母、数字和空白符),18是最大的字符序列长度。输出张量中每一列代表一个时间步(time step),每一行代表一个字符类别(character class)。输出张量中每个元素的值表示该时间步下该字符类别的概率。LPRNet使用CTC损失函数来计算输出张量和真实标签之间的距离。CTC损失函数可以处理输出序列和真实序列长度不一致,以及输出序列中存在重复字符的情况。CTC损失函数的原理和计算方法可以参考这篇文章:理解CTC损失函数。LPRNet使用贪心算法或者束搜索算法来从输出张量中解码出最可能的字符序列1。贪心算法是每个时间步选择概率最大的字符类别,然后去掉重复和空白符;束搜索算法是维护一个候选序列集合,每个时间步根据概率更新集合中的序列,并保留前k个最优序列。
在本实施例中,有人或车辆接近电动伸缩门时,传感器模块会检测到其存在,并将信号传送给控制器模块;控制器模块启动摄像头模块,对人脸或者车牌图像进行拍摄和识别;控制器模块会根据摄像头模块的识别结果,与存储器模块中的数据进行比对和分析,判断出入人员或车辆的身份和权限;控制器模块会根据分析结果,向显示器模块发送相应的信息,如允许或拒绝进入、报警或提示等;控制器模块会根据分析结果,向驱动器模块发送相应的指令,控制电动伸缩门的开关和速度;控制器模块会将所有的输入和输出数据,保存在存储器模块中,以便后续的查询和统计;控制器模块会通过通信模块,与外部设备或系统进行数据交换,如上传或下载数据、接收或发送指令等。
实施例2:
在本实施例中,所述控制器模块根据预计驶入车辆距电动伸缩门的距离进行调速控制且根据预计驶入车辆的宽度判断需要开门的宽度,方法为,
首先,需要使用单目摄像头捕捉前方车辆的图像,并使用人脸识别的算法,比如LBPH、Eigenfaces、Fisherfaces等,对图像中的车辆进行检测和识别。这些算法可以通过训练样本识别车辆并生成分类器模型。当用户提供一张车辆图像时,可以使用分类器模型检测车辆,然后使用OpenCV提供的人脸识别算法对车辆进行识别。如果识别结果与存储器模块中的数据不匹配,或者低于某个阈值,就可以判断为陌生车辆,并向显示器模块发送报警信息。
然后,需要使用光流的方法来估计车辆的速度和距离。光流是一种为每个像素计算矢量的方法,告诉你两幅图像之间的相对运动。有一些“经典”的计算机视觉算法可以用来计算光流,但深度学习已经变得更好了。例如,RAFT是一个用深度神经网络实现的光流估计方法,它可以预测出一个维度为*(2,image_height,image_width)*的张量。如前所述,图像中的每个像素对应一个二维向量。我们可以利用这些向量来计算车辆在水平方向和垂直方向上的速度分量,以及车辆在图像中的宽度。
接下来,需要使用已知的摄像头参数和几何关系来计算车辆距电动伸缩门的距离和宽度。假设摄像头的焦距为F,摄像头与地面的高度为H,摄像头与地面的夹角为θ,摄像头与电动伸缩门之间的水平距离为L,车辆在图像中的宽度为w,车辆在实际中的宽度为W,则可以根据以下公式计算出车辆距电动伸缩门的距离d和宽度W,
最后,需要根据车辆距电动伸缩门的距离d和速度v来调节电动伸缩门的开启速度s和开启宽度w。假设电动伸缩门每次开启或关闭都需要一个固定时间t,则可以根据以下公式计算出电动伸缩门的开启速度s和开启宽度w:
w=W+2δ
其中,δ是一个安全裕量。
具体的,RAFT是一种基于深度神经网络的光流估计方法,它可以从两幅连续的图像中估计每个像素的运动。RAFT的主要特点有以下几点:RAFT在全分辨率上提取像素级的特征,并构建多尺度的4D相关空间,用于表示两幅图像中所有像素对之间的相似度。这样可以捕捉到不同尺度和方向的运动,而不需要使用金字塔或者光流金字塔。RAFT使用一个循环更新算子,基于GRU(门控循环单元)的结构,来迭代地更新光流场。这个算子可以模拟传统方法中的优化迭代过程,同时利用深度学习的能力来学习一个有效的更新策略。RAFT使用一个相同的更新算子来处理不同分辨率的相关空间,从而实现了端到端的训练和推理。这样可以避免在不同分辨率之间传递错误或者丢失信息,也可以减少网络参数和计算量。流光的估计方法为RAFT,具体步骤为,特征提取:使用一个特征编码器和一个上下文编码器,分别提取两幅图像的特征和第一幅图像的上下文信息。特征编码器和上下文编码器共享权重,并且只在第一次迭代时使用。
相似性计算:使用点积操作,计算两幅图像特征之间的相关空间,即每个像素对之间的相似度。为了处理不同尺度的运动,使用池化操作构建四层相关空间金字塔。
迭代更新:使用一个基于GRU的循环更新算子,根据当前的光流场,在相关空间金字塔中查找相应的区域,并将其与上下文信息和光流特征拼接起来,作为GRU的输入。GRU输出一个隐藏状态,经过两层卷积后得到光流场的更新量,并与之前的光流场相加得到新的光流场。这个过程重复多次,直到收敛或达到最大迭代次数,要使用RAFT估计车辆的速度和距离,首先需要有两幅连续的图像作为输入,然后使用RAFT网络计算出每个像素的光流向量。光流向量表示了图像中每个像素在两幅图像之间的运动位移,可以用来推断物体的相对速度和方向。然而,光流向量只能提供图像平面上的运动信息,不能直接得到物体在深度方向的运动信息。为了获得物体在深度方向的速度和距离,还需要将光流向量从二维的像素坐标投影到三维的世界坐标系中,基于深度神经网络的方法将光流向量从二维的像素坐标投影到三维的世界坐标系中,主要是利用深度神经网络直接从两幅图像中预测出每个像素的深度信息。深度信息可以表示每个像素距离相机的距离,从而可以将像素坐标转换为世界坐标。
具体来说,有以下几个步骤:
首先,使用RAFT网络从两幅图像中计算出每个像素的光流向量。光流向量表示了图像中每个像素在两幅图像之间的运动位移,可以用来推断物体的相对速度和方向。
然后,使用一个深度神经网络从两幅图像中预测出每个像素的深度信息。深度神经网络可以是一个卷积神经网络或者一个双目神经网络,根据输入图像的类型而定。卷积神经网络可以从单张图像中预测深度信息,但是需要大量的带有真实深度标注的数据来训练。双目神经网络可以从两张具有视差的图像中预测深度信息,利用了双目视觉的原理,但是需要相机内参和校准信息来对齐图像。
最后,使用相机内参和深度信息将每个像素的光流向量从二维的像素坐标投影到三维的世界坐标系中。假设相机内参矩阵为K=[fx 0c x;0fy c y;001],其中fx和fy是焦距,c x和c y是主点坐标。假设两幅图像中对应的像素点为p 1=[u 1,v 1,1]T和p 2=[u2,v 2,1]T,其中u和v是水平和垂直方向上的坐标。假设这两个点对应的世界坐标为P1=[X1,Y 1,Z 1]T和P 2=[X 2,Y 2,Z 2]T,其中X,Y和Z是水平、垂直和深度方向上的坐标。那么,根据针孔相机模型,有以下关系:
p 1=KP 1/Z 1
p 2=KP 2/Z 2
其中/表示逐元素除法。由此可以解出P1和P 2,如果已知K和Z1和Z 2。然后,可以计算出光流向量在世界坐标系中的表示:
F=P 2-P 1
其中F=[F X,F Y,F Z]T是光流向量在世界坐标系中的表示,F X,FY和F Z分别表示水平、垂直和深度方向上的运动位移,电动伸缩门还包括地感检测器和地感线圈,用于车辆行过自动关门和防夹功能。
上述实施方式仅为本发明的优选实施方式,不能依次来限定本发明保护的范围,本领域的技术人员对本发明的技术方案进行各种组合、修改或者等同替换,都不脱离本发明技术方案的精神和范围,均应涵盖在本发明的权利要求范围当中。

Claims (8)

1.一种自动感应式电动伸缩门,其特征在于,包括:
电动伸缩门主体,所述电动伸缩门主体由若干个可相互连接和分离的门板组成;
驱动器模块,所述驱动器模块控制电动伸缩门主体的工作,实现电动伸缩门主体的开启和关闭;
传感器模块,包括多个传感器,安装在电动伸缩门主体上;
摄像头模块,所述摄像头模块安装在电动伸缩门主体的上方或侧方,用于拍摄伸缩门前端区域内的人脸或者车牌图像;
控制器模块,所述控制器模块与电动伸缩门主体和摄像头模块相连,用于接收传感器和摄像头模块的信号,并根据预设的算法和规则,控制驱动器模块的工作,检测到陌生人时,会进行报警;
显示器模块,所述显示器模块与控制器模块相连,用于显示控制器模块的输出信息,包括开门指令、报警信息、识别结果;
存储器模块,所述储存器与控制器模块相连,用于存储控制器模块的输入和输出数据,包括人脸或者车牌图像、识别结果、开门记录;
通信模块,所述通信模块与控制器模块相连,用于与外部设备或系统进行数据交换,包括安保中心、数据库、云端平台。
2.根据权利要求1所述的一种自动感应式电动伸缩门,其特征在于:所述检测到陌生人进行报警的具体方法是,
首先,我们需要导入一些必要的库,这些库提供了一些功能和方法,方便我们进行人脸识别和眨眼检测等操作,接下来,我们需要加载训练集,也就是之前通过训练样本生成的分类器模型文件(.yml格式),然后,我们需要使用摄像头,并设置视频的宽度和高度,接下来,我们需要定义一个眨眼检测函数,它可以根据人脸特征点计算出眼睛的长宽比(EAR),并根据EAR的阈值和连续帧数来判断是否发生了眨眼动作,同时,也需要定义一个嘴巴检测函数,它可以根据人脸特征点计算出嘴巴的长宽比(MAR),并根据MAR的阈值和连续帧数来判断是否发生了打哈欠动作,之后,我们需要循环地从摄像头获取图像,并进行人脸识别和眨眼检测操作,对于每个检测到的人脸区域,我们使用OpenCV提供的rectangle()方法在原始图像上绘制一个绿色的矩形框,并传入一些参数,如左上角坐标、右下角坐标、颜色、线宽等,然后,我们使用OpenCV提供的predict()方法对灰度图像中的人脸区域进行人脸识别,进行置信度分析,置信度低于阈值,判断为陌生人,进行报警。
3.根据权利要求1所述的一种自动感应式电动伸缩门,其特征在于:所述通讯模块与外部设备或系统进行数据交换,具体方法为,
首先,需要选择合适的通讯协议,根据不同的数据源和目标设备的特点,选择最适合的通讯方式,然后,需要使用通讯模块来实现通讯协议,根据不同的通讯协议,选择相应的硬件和软件来实现数据的发送和接收,最后,需要使用数据交换平台来管理和监控数据交换过程,根据不同的数据源和目标设备的特点,选择最适合的数据交换方式。
4.根据权利要求1所述的一种自动感应式电动伸缩门,其特征在于:所述电动伸缩门可以对进入园区内的人脸或者车牌进行机械学习,自动完善车牌或者人脸信息,方法为,
首先,需要使用摄像头捕捉进入园区内的人脸或者车牌的图像,并使用人脸识别或者车牌识别的算法,比如LBPH、Eigenfaces、Fisherfaces等,对图像中的人脸或者车牌进行检测和识别,当用户提供一张人脸或者车牌图像时,可以使用分类器模型检测人脸或者车牌,然后使用OpenCV提供的人脸识别或者车牌识别算法对人脸或者车牌进行识别,如果识别结果与存储器模块中的数据匹配,就可以直接开门放行,如果识别结果与存储器模块中的数据不匹配,或者低于某个阈值,就可以判断为陌生人脸或者陌生车牌,并向显示器模块发送报警信息,然后,使用深度学习的方法来对每天进入园区内的人脸或者车牌进行机器学习,自动完善车牌或者人脸信息。
5.根据权利要求1所述的一种自动感应式电动伸缩门,其特征在于:所述控制器模块根据预计驶入车辆距电动伸缩门的距离进行调速控制且根据预计驶入车辆的宽度判断需要开门的宽度,方法为,
首先,需要使用单目摄像头捕捉前方车辆的图像,并使用人脸识别的算法,比如LBPH、Eigenfaces、Fisherfaces等,对图像中的车辆进行检测和识别,当用户提供一张车辆图像时,可以使用分类器模型检测车辆,然后使用OpenCV提供的人脸识别算法对车辆进行识别,如果识别结果与存储器模块中的数据不匹配,或者低于某个阈值,就可以判断为陌生车辆,并向显示器模块发送报警信息,然后,使用光流的方法来估计车辆的速度和距离,接下来,需要使用已知的摄像头参数和几何关系来计算车辆距电动伸缩门的距离和宽度,假设摄像头的焦距为F,摄像头与地面的高度为H,摄像头与地面的夹角为θ,摄像头与电动伸缩门之间的水平距离为L,车辆在图像中的宽度为w,车辆在实际中的宽度为W,则可以根据以下公式计算出车辆距电动伸缩门的距离d和宽度W:
最后,需要根据车辆距电动伸缩门的距离d和速度v来调节电动伸缩门的开启速度s和开启宽度w。假设电动伸缩门每次开启或关闭都需要一个固定时间t,则可以根据以下公式计算出电动伸缩门的开启速度s和开启宽度w,
w=W+2δ
其中,δ是一个安全裕量。
6.根据权利要求5所述的一种自动感应式电动伸缩门,其特征在于:所述流光的估计方法为RAFT,具体步骤为,
A1、特征提取:使用一个特征编码器和一个上下文编码器,分别提取两幅图像的特征和第一幅图像的上下文信息,特征编码器和上下文编码器共享权重,并且只在第一次迭代时使用。
A2、相似性计算:使用点积操作,计算两幅图像特征之间的相关空间,即每个像素对之间的相似度,为了处理不同尺度的运动,使用池化操作构建四层相关空间金字塔。
A3、迭代更新:使用一个基于GRU的循环更新算子,根据当前的光流场,在相关空间金字塔中查找相应的区域,并将其与上下文信息和光流特征拼接起来,作为GRU的输入,这个过程重复多次,直到收敛或达到最大迭代次数。
7.根据权利要求5所述的一种自动感应式电动伸缩门,其特征在于:所述流光估计的方法还需要配合基于深度神经网络的方法,来将光流向量从二维的像素坐标投影带三维的世界坐标系中,具体步骤为,
首先,使用RAFT网络从两幅图像中计算出每个像素的光流向量,光流向量表示了图像中每个像素在两幅图像之间的运动位移,可以用来推断物体的相对速度和方向,然后,使用一个深度神经网络从两幅图像中预测出每个像素的深度信息,深度神经网络可以是一个卷积神经网络或者一个双目神经网络,根据输入图像的类型而定,最后,使用相机内参和深度信息将每个像素的光流向量从二维的像素坐标投影到三维的世界坐标系中,假设相机内参矩阵为K=[fx0c x;0fy c y;001],其中fx和fy是焦距,c x和c y是主点坐标,假设两幅图像中对应的像素点为p 1=[u 1,v 1,1]T和p 2=[u 2,v 2,1]T,其中u和v是水平和垂直方向上的坐标,假设这两个点对应的世界坐标为P1=[X 1,Y 1,Z 1]T和P 2=[X 2,Y 2,Z 2]T,其中X,Y和Z是水平、垂直和深度方向上的坐标,那么,根据针孔相机模型,有以下关系:
p 1=KP 1/Z 1
p 2=KP 2/Z 2
其中/表示逐元素除法,由此可以解出P1和P 2,如果已知K和Z1和Z 2,然后,可以计算出光流向量在世界坐标系中的表示:
F=P 2-P 1
其中F=[F X,F Y,F Z]T是光流向量在世界坐标系中的表示,F X,FY和F Z分别表示水平、垂直和深度方向上的运动位移。
8.根据权利要求1所述的一种自动感应式电动伸缩门,其特征在于:所述电动伸缩门还包括地感检测器和地感线圈,用于车辆行过自动关门和防夹功能。
CN202310668911.0A 2023-06-07 2023-06-07 一种自动感应式电动伸缩门 Withdrawn CN116677287A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310668911.0A CN116677287A (zh) 2023-06-07 2023-06-07 一种自动感应式电动伸缩门

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310668911.0A CN116677287A (zh) 2023-06-07 2023-06-07 一种自动感应式电动伸缩门

Publications (1)

Publication Number Publication Date
CN116677287A true CN116677287A (zh) 2023-09-01

Family

ID=87785033

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310668911.0A Withdrawn CN116677287A (zh) 2023-06-07 2023-06-07 一种自动感应式电动伸缩门

Country Status (1)

Country Link
CN (1) CN116677287A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117555258A (zh) * 2023-11-14 2024-02-13 济南巨光风田门业有限公司 一种基于人工智能的电动上叠门智能控制管理系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117555258A (zh) * 2023-11-14 2024-02-13 济南巨光风田门业有限公司 一种基于人工智能的电动上叠门智能控制管理系统
CN117555258B (zh) * 2023-11-14 2024-04-26 济南巨光风田门业有限公司 一种基于人工智能的电动上叠门智能控制管理系统

Similar Documents

Publication Publication Date Title
EP3740897B1 (en) License plate reader using optical character recognition on plural detected regions
CN109558823B (zh) 一种以图搜图的车辆识别方法及系统
US20230222844A1 (en) Parking lot management and control method based on object activity prediction, and electronic device
CN110781838A (zh) 一种复杂场景下行人的多模态轨迹预测方法
EP1113388B1 (en) Visual device
CN111767900B (zh) 人脸活体检测方法、装置、计算机设备及存储介质
CN112836640B (zh) 一种单摄像头多目标行人跟踪方法
KR101653278B1 (ko) 색상 기반 얼굴 검출을 통한 실시간 얼굴 추적 시스템
KR101877294B1 (ko) 객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 cctv 시스템
Varghese et al. An efficient algorithm for detection of vacant spaces in delimited and non-delimited parking lots
CN112419233B (zh) 一种数据标注方法、装置、设备以及计算机可读存储介质
CN106682681A (zh) 一种基于相关反馈的识别算法自动改进方法
CN103714321A (zh) 基于距离图像和强度图像的驾驶员人脸定位系统
CN109934108A (zh) 一种多目标多种类的车辆检测和测距系统及实现方法
CN116677287A (zh) 一种自动感应式电动伸缩门
Liu et al. Trajectory and image-based detection and identification of UAV
CN112381132A (zh) 一种基于多个摄像头融合的目标物跟踪方法和系统
WO2021243947A1 (zh) 对象再识别方法及装置、终端和存储介质
CN112613668A (zh) 基于人工智能的景区危险区域管控方法
CN112634329A (zh) 一种基于时空与或图的场景目标活动预测方法及装置
Gu et al. Embedded and real-time vehicle detection system for challenging on-road scenes
CN113095199B (zh) 一种高速行人识别方法及装置
CN113505704B (zh) 图像识别的人员安全侦测方法、系统、设备及存储介质
CN116824641B (zh) 姿态分类方法、装置、设备和计算机存储介质
CN113538513A (zh) 监控对象的进出控制方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20230901