CN113793388A - 一种基于深度学习的立体视觉人际安全距离检测方法 - Google Patents
一种基于深度学习的立体视觉人际安全距离检测方法 Download PDFInfo
- Publication number
- CN113793388A CN113793388A CN202110909295.4A CN202110909295A CN113793388A CN 113793388 A CN113793388 A CN 113793388A CN 202110909295 A CN202110909295 A CN 202110909295A CN 113793388 A CN113793388 A CN 113793388A
- Authority
- CN
- China
- Prior art keywords
- camera
- image
- target
- personnel
- interpersonal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 52
- 238000013135 deep learning Methods 0.000 title claims abstract description 14
- 238000012937 correction Methods 0.000 claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 15
- 238000013519 translation Methods 0.000 claims description 7
- 238000007476 Maximum Likelihood Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000009191 jumping Effects 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000002265 prevention Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Abstract
本发明公开了一种基于深度学习的立体视觉人际安全距离检测方法,包括:基于平面棋盘靶标的双目视觉系统标定;利用双目相机采集场景图像;基于标定的相机参数,对采集的图像进行畸变校正和极线校正;将双目校正图像分别输入深度神经网络,进行人员目标检测,输出人员目标边框向量集;将左校正图像中的人员目标中心点作为参考点,在极线约束和边框约束下,在右校正图像中寻找匹配点,估计匹配点与参考点视差,计算参考点对应人员的三维坐标;根据人员三维坐标计算人际距离;通过大屏选框及语音提醒近距人员。本发明的人际距离检测方法自动化程度高、距离检测更准确、匹配计算复杂度低、检测实时性强。
Description
技术领域
本发明属于计算机视觉、深度学习、目标检测领域,尤其涉及一种基于深度 学习的立体视觉人际安全距离检测方法。
背景技术
保持人际安全距离是疫情防控的重要手段之一。提高人际距离检测的自动 化、智能化对降低疫情防控人力成本并提升防控效率有着重要意义。在医院、银 行、车站、政府服务窗口等公共场所部署机器视觉系统,自动检测人际安全距离 具有新颖性和需求迫切性。
Naqiyuddin等人设计了一种可穿戴的人际距离检测系统,该系统由微控制 器、超声波传感器、LCD和蜂鸣器等构成,需要用户主动佩戴该装置,然后利 用超声波探测人际距离。Gad等人设计了基于视觉的人际距离检测系统,利用逆 透视模型将相机采集的视频变换为鸟瞰图,基于卡尔曼滤波器和速度模型跟踪并 估计人际距离,该方法不需要用户佩戴专用设备,但人员漏检概率大,且人际距 离估计误差大。Hou等人利用深度学习模型进行人际距离检测,提高了人员检测 的可靠性,但通过人员目标的像素距离估计人际距离,准确度不足;无独有偶, Bhambani等人也基于单目视觉系统和深度学习模型提出了口罩检测和人际距离 检测系统,同样存在深度距离估计准确度不及水平距离估计准确度的问题。现有个别基于立体视觉的人际安全距离估计方法,存在立体匹配计算复杂度高,难以 满足实时性要求。
面向人际安全距离检测的机器视觉系统及方法的研究是新冠疫情以来出现 的新需求,尽管出现了一些解决方案,但仍存在系统不易部署、人员漏检、人际 距离计算不准确、算法难以达到实时性等诸多问题。基于机器视觉系统,设计高 可靠性、高实时性的人际安全距离检测方法具有实用价值。
发明内容
发明目的:本发明目的是提供一种基于深度学习的立体视觉人际安全距离检 测方法,可简化系统部署,提高人员检测和距离估计准确度和系统可靠性。
技术方案:本发明提供一种基于深度学习的立体视觉人际安全距离检测方 法,具体包括以下步骤:
(1)基于平面棋盘靶标对双目视觉系统进行标定,并使用标定后双目视觉 系统的左相机CL和右相机CR分别采集人员聚集场景图像,分别记为Ileft和Iright;
(3)将双目校正图像分别输入深度神经网络,进行人员目标检测,输出人 员目标边框向量集,分别记为:FL和FR;每个边框向量的格式为(x,y,w,h),其 中,(x,y)表示人员目标边框左上角位置对应的像素坐标,w,h分别表示边框的宽 度和高度;
(4)将左校正图像中的人员目标中心点作为参考点,在极线约束和边框约 束下,对中检测到的每个人员目标中心点p,在中寻找立体匹配点p', 计算中每个人员目标中心点p与匹配点p'的视差d,得到中心点p对应的人 员目标的三维坐标(Xp,Yp,Zp);
(5)根据人员三维坐标计算人际距离;
(6)根据设定的人际距离下限,对距离过近人员进行警示提醒。
进一步地,所述步骤(1)包括以下步骤:
(14)考虑相机径向畸变,利用平面棋盘靶标图像和的角点像素 坐标,估计左相机CL和右相机CR的畸变参数初始值;利用最小二乘法优化左右 两个相机的内参数、外参数和径向畸变参数,得到左相机CL的内参数外参 数径向畸变参数径向畸变参数和右相机CR的内参数外参数 径向畸变参数径向畸变参数
进一步地,所述步骤(2)中包括如下步骤:
(21)径向畸变校正:首先,创建与Ileft等大小的空白图像其次,对Ileft的每个像素坐标根据左相机CL的内参数及畸变参数计 算径向畸变校正坐标((u,v)),并将Ileft的位置处像素的灰度值赋给的 (u,v)位置的像素;再次,对中空值像素,进行插值处理;最后,将保存为 作为左图像Ileft畸变校正后的结果;同理,可得右图像Iright畸变校正后的结 果
(22)双目极线校正:首先,根据右相机CR相对于左相机CL的旋转变换矩 阵R,将CR的相机坐标系和CL的相机坐标系各旋转R矩阵表示旋转角度的一半 使两相机坐标系平行;其次,右相机CR相对于左相机CL的平移变换矩阵T,确 定极线对准矩阵Rp;最后,根据rL、rR、Rp的值,分别旋转左畸变校正图像和右畸变校正图像得到左极线校正图像和右极线校正图像
进一步地,步骤(3)所述深度神经网络采用Yolov3目标检测网络,将检测 输出类别设置为Person;或采用Faster-RCNN等目标检测网络,通过后处理将输 出向量格式调整为(x,y,w,h)。
进一步地,所述步骤(4)包括以下步骤:
(45)根据标定的双目相机参数和参考点p和匹配点p'的视差值d,计算中 心点p对应的人员目标的三维坐标(Xp,Yp,Zp);
有益效果:与现有技术相比,本发明的有益效果:实现了人员自动检测、人 际距离准确估计和距离过近预警。本发明的人际距离检测方法自动化程度高、距 离检测更准确、匹配计算复杂度低、检测实时性强。
附图说明
图1为本发明的流程图;
图2为本发明的双目相机示例图;
图3为本发明的平面棋盘靶标示意图;
图4为本发明的坐标系示意图;
图5为本发明的双目系统标定流程图;
图6为本发明的左相机采集场景图像示例;
图7为本发明的右相机采集场景图像示例;
图8为本发明的图像校正流程图;
图9为本发明的人员目标检测框图;
图10为本发明框选的人员目标示例1;
图11为本发明框选的人员目标示例2;
图12为本发明的立体匹配及视差计算流程图;
图13为本发明的双目视差示意图;
图14位本发明的测距误差测试曲线图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明提供一种基于深度学习的立体视觉人际安全距离检测方法,可以依托 双目视觉系统、深度学习开发平台、大屏显示系统等平台实施。如图1所示,具 体包括以下步骤:
步骤1:基于平面棋盘靶标对双目视觉系统进行标定,如图2所示,并使用 标定后双目视觉系统的左相机CL和右相机CR分别采集人员聚集场景图像,分别 记为Ileft和Iright。
标定由左相机CL和右相机CR构成的双目视觉系统的参数,包括:左相机CL内参数:左相机CL外参数:左相 机CL径向畸变参数:右相机CR内参数:右 相机CR外参数:右相机CR径向畸变参数右相机 CR相对于左相机CL的旋转变换矩阵R;右相机CR相对于左相机CL的平移变换 矩阵T;具体地,左右相机内外参数中,fL、fR分别表示左、右相机焦距, 分别表示左相机传感器单位长度上的像素数,分别表示右相机传感器单位长度上的像素数,表示左相机的主点坐标,表示右相机 的主点坐标,RL、RR分别表示左右相机的旋转矩阵,TL、TR分别表示左右相机 的平移矩阵。
双目系统标定时,采用如图3所示的已知方格尺寸的平面棋盘栅格作为靶 标,为了简化而不失一般性,可以靶标平面为基础建立世界坐标系 (OW-XWYWZW)。如图4所示,通常以相机光心为原点建立相机坐标系 (OC-XCYCZC),以主点为原点建立图像坐标系(OI-XIYI),以图像左上角为 原点像素为单位建立像素坐标系(Op-UV)。左右相机的外参数用于完成世界坐标系向相机坐标系的变换,左右相机的内参数用 于完成相机坐标系到像素坐标系的变换。右相机CR相对于左相机CL的旋转变换 矩阵R可由同一靶标下左右相机的外参数计算得到,同样,右相机CR相对于左 相机CL的平移变换矩阵T也可由同一靶标下左右相机的外参数计算得到。
标定方法如图5所示,包括如下步骤:
1)用双目系统的左相机CL和右相机CR同时采集已知尺寸的平面棋盘靶标 (见图3)图像,从3个角度拍摄平面棋盘靶标,得到3对平面棋盘靶标图像(分 别记为:)。采集过程中保持双目视 觉系统的相对位置关系不变,变换双目系统相对于平面棋盘靶标的角度。
3)不考虑相机畸变,利用平面棋盘靶标图像 的角点像素坐标,根据已知的平面靶标尺寸和物像方程确定左相 机CL和右相机CR的内参和外参初始值并利用极大似然估计优化参数。对于每个 相机,利用其采集的3幅平面棋盘靶标图像,计算出3个单应矩阵;再由3个单 应矩阵确定相机的内参数,其中和两个分数参数是作为一个整体确 定初值的,可以取相机焦距标称值作为fL和fR的初值,然后确定和的初值。 两相机的内参矩阵初始值确定后,选取一对平面靶标图像(例如:), 分别随机选取4个角点的像素坐标,求解该角度下的外参矩阵初值;然后,利用 所有角点的坐标值和极大似然法优化分别优化两个相机的内参数和外参数。
5)根据左相机CL的和右相机CR的确定右相机CR相对于左相机CL的旋转变换矩阵R,右相机CR相对于左相机CL的平移变换矩阵T。在确定左右 相机采集一对靶标图像时的外参矩阵后,可以推导出两相机之间的变换关系(R, T),公式为:R=RRRLT,T=TR-RTL。
使用标定后双目视觉系统的左相机CL和右相机CR分别采集人员聚集场景 的1对图像,分别记为Ileft和Iright。图6、图7给出一对场景图像示例,场景中人 员已做马赛克处理。
在双目系统的相机参数标定已知的情况下,对采集的图像进行校正有利于提 高立体匹配的准确度和效率。如图8所示,双目图像校正方法包括如下步骤:
1)径向畸变校正:首先,创建与Ileft等大小的空白图像其次,对Ileft的 每个像素坐标根据左相机CL的内参数及径向畸变参数计算径向畸变校正坐标((u,v)),即 这里(x,y)是像素坐标(u,v)对应的图像坐 标,然后将Ileft的位置处像素的灰度值赋给的(u,v)位置的像素;再次, 对中空值像素,进行插值处理,插值算法可优选双线性插值算法;最后,将保存为作为左图像Ileft畸变校正后的结果。同理,可得右图像Iright畸变校正 后的结果
2)双目极线校正:首先,根据右相机CR相对于左相机CL的旋转变换矩阵R, 将CR的相机坐标系和CL的相机坐标系各旋转R矩阵表示旋转角度的一半(即:R=rL*(rR)-1,rL和rR分别表示校正时左右相机内参数需左乘的矩阵),使两相 机坐标系平行;其次,右相机CR相对于左相机CL的平移变换矩阵T,确定极线 对准矩阵Rp;最后,根据rL、rR、Rp的值,分别旋转左畸变校正图像和右 畸变校正图像得到左极线校正图像和右极线校正图像
步骤3:将双目校正图像分别输入深度神经网络,进行人员目标检测,输出 人员目标边框向量集,分别记为:FL和FR;每个边框向量的格式为(x,y,w,h), 其中,(x,y)表示人员目标边框左上角位置对应的像素坐标,w,h分别表示边框的 宽度和高度。
按照人员检测深度神经网络输入尺寸的要求,分别将左极线校正图像和右极线校正图像裁剪为大小为M×N双目校正图像,分别记为和 如果优选Yolov3作为人员目标检测深度神经网络,则将校正图像裁剪为 416×416的大小。
利用人员目标检测深度神经网络,分别在和上检测人员目标,得到 人员目标边框向量集,记为:FL和FR,每个边框向量(fL∈FL或fR∈FR)的格 式为(x,y,w,h),其中,(x,y)表示人员目标边框左上角位置对应的像素坐标,w,h 分别表示边框的宽度和高度(以像素为单位)。图9是人员目标检测示意图,其 中,人员目标检测深度神经网络,优选Yolov3目标检测网络,将检测输出类别 设置为Person;也可采用Faster-RCNN等目标检测网络,通过后处理将输出向量 格式调整为(x,y,w,h)。根据目标检测网络输出的向量集,可以框选出人员目标, 图10、图11是按照目标检测网络输出向量而框选出的人员图像示例。
步骤4:将左校正图像中的人员目标中心点作为参考点,在极线约束和边框 约束下,对中检测到的每个人员目标中心点p,在中寻找立体匹配点p', 计算中每个人员目标中心点p与匹配点p'的视差d,得到中心点p对应的人 员目标的三维坐标(Xp,Yp,Zp);如图12所示,包括如下步骤:
3)在右校正图像中寻找与左校正图像中人员中心点p对应的立体匹 配点p'。具体地,匹配的约束条件是极线约束和边框约束,其中,极线约束是 指,p'的行坐标值应与p的行坐标值相等;边框约束是指,p'应落入右校正图 像的人员目标边框向量集FR中的某个边框内。匹配的相似性度量准则是基于 支持区域的平方差之和的代价函数,即以p为中心的支持区域WL和以p'为中心 的支持区域WR内所有对应像素灰度差的平方之和。匹配的搜索策略是“赢家通 吃(Winner takes all)”,即满足约束条件的取得最小度量值的点被选为匹配点。
5)根据标定的双目相机参数和参考点p和匹配点p'的视差值d,计算中心 点p对应的人员目标的三维坐标(Xp,Yp,Zp)。深度维度Zp的计算方法是 Zp=(B·fL)/d,这里,B由平移矩阵T的X分量计算。Xp,Yp可由p的像素坐标 与左相机内参矩阵的逆矩阵相乘得到。
步骤5:根据人员三维坐标计算人际距离。
步骤6:根据设定的人际距离下限,对距离过近人员进行警示提醒。
人员距离下限可根据实际情况设置,比如设置为1米。警示提醒可以通过大 屏显示和语音提示配合使用。
为验证本发明的人际安全距离检测方法的实用性,在以K210芯片为处理核 心的勘智开发板上,扩展如图1所示的双目摄像头,实现了本发明所公开的检测 方法。该方法能够在有限的计算资源下对人员场景视频流进行实时检测和近距预 警。其运行时间低于Ahamad等人报道方法运行时间2个数量级,满足高实时要 求。
图14展示了用双目基线60毫米的立体视觉系统采集已知人员目标准确距离 的设定场景,运行本发明的人际安全距离检测方法,得到的测量距离与实际距离 之间的关系曲线。观察该图可知,尽管双目立体视觉系统测量机理约束下,测量 误差随实际间距呈上升趋势,但相对误差比例明显低于1%,远低于Gad等人所 报道方法取得的1.69%、2.17%、3.45%的误差;也低于Bhambani等人方法2% 以上的误差。
Claims (5)
1.一种基于深度学习的立体视觉人际安全距离检测方法,其特征在于,包括以下步骤:
(1)基于平面棋盘靶标对双目视觉系统进行标定,并使用标定后双目视觉系统的左相机CL和右相机CR分别采集人员聚集场景图像,分别记为Ileft和Iright;
(3)将双目校正图像分别输入深度神经网络,进行人员目标检测,输出人员目标边框向量集,分别记为:FL和FR;每个边框向量的格式为(x,y,w,h),其中,(x,y)表示人员目标边框左上角位置对应的像素坐标,w,h分别表示边框的宽度和高度;
(4)将左校正图像中的人员目标中心点作为参考点,在极线约束和边框约束下,对中检测到的每个人员目标中心点p,在中寻找立体匹配点p',计算中每个人员目标中心点p与匹配点p'的视差d,得到中心点p对应的人员目标的三维坐标(Xp,Yp,Zp);
(5)根据人员三维坐标计算人际距离;
(6)根据设定的人际距离下限,对距离过近人员进行警示提醒。
2.根据权利要求1所述的基于深度学习的立体视觉人际安全距离检测方法,其特征在于,所述步骤(1)包括以下步骤:
(14)考虑相机径向畸变,利用平面棋盘靶标图像和的角点像素坐标,估计左相机CL和右相机CR的畸变参数初始值;利用最小二乘法优化左右两个相机的内参数、外参数和径向畸变参数,得到左相机CL的内参数外参数径向畸变系数径向畸变系数和右相机CR的内参数外参数径向畸变系数径向畸变系数
3.根据权利要求1所述的基于深度学习的立体视觉人际安全距离检测方法,其特征在于,所述步骤(2)中包括如下步骤:
(21)径向畸变校正:首先,创建与左图像Ileft等大小的空白图像其次,对左图像Ileft的每个像素坐标根据左相机CL的内参数及径向畸变参数计算径向畸变校正坐标((u,v)),并将Ileft的位置处像素的灰度值赋给的(u,v)位置的像素;再次,对中空值像素,进行插值处理;最后,将保存为作为左图像Ileft畸变校正后的结果;同理,可得右图像Iright畸变校正后的结果
(22)双目极线校正:首先,根据右相机CR相对于左相机CL的旋转变换矩阵R,将CR的相机坐标系和CL的相机坐标系各旋转R矩阵表示旋转角度的一半使两相机坐标系平行;其次,右相机CR相对于左相机CL的平移变换矩阵T,确定极线对准矩阵Rp;最后,根据rL、rR、Rp的值,分别旋转左畸变校正图像和右畸变校正图像得到左极线校正图像和右极线校正图像
4.根据权利要求1所述的基于深度学习的立体视觉人际安全距离检测方法,其特征在于,步骤(3)所述深度神经网络采用Yolov3目标检测网络,将检测输出类别设置为Person;或采用Faster-RCNN等目标检测网络,通过后处理将输出向量格式调整为(x,y,w,h)。
5.根据权利要求1所述的基于深度学习的立体视觉人际安全距离检测方法,其特征在于,所述步骤(4)包括以下步骤:
(45)根据标定的双目相机参数和参考点p和匹配点p'的视差值d,计算中心点p对应的人员目标的三维坐标(Xp,Yp,Zp);
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110909295.4A CN113793388A (zh) | 2021-08-09 | 2021-08-09 | 一种基于深度学习的立体视觉人际安全距离检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110909295.4A CN113793388A (zh) | 2021-08-09 | 2021-08-09 | 一种基于深度学习的立体视觉人际安全距离检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113793388A true CN113793388A (zh) | 2021-12-14 |
Family
ID=79181554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110909295.4A Pending CN113793388A (zh) | 2021-08-09 | 2021-08-09 | 一种基于深度学习的立体视觉人际安全距离检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113793388A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861407A (zh) * | 2023-02-28 | 2023-03-28 | 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) | 基于深度学习的安全距离检测方法及系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010225130A (ja) * | 2009-03-24 | 2010-10-07 | Naoya Abe | 対人距離危険度警告装置 |
CN102175222A (zh) * | 2011-03-04 | 2011-09-07 | 南开大学 | 基于立体视觉的吊车避障系统 |
WO2013009980A1 (en) * | 2011-07-13 | 2013-01-17 | Alibaba Group Holding Limited | Ranking and searching method and apparatus based on interpersonal distances |
CN106780633A (zh) * | 2017-02-20 | 2017-05-31 | 北京创想智控科技有限公司 | 一种图像校正方法、装置及双目视觉系统 |
CN107301664A (zh) * | 2017-05-25 | 2017-10-27 | 天津大学 | 基于相似性测度函数的改进局部立体匹配方法 |
CN108776980A (zh) * | 2018-05-14 | 2018-11-09 | 南京工程学院 | 一种面向微透镜光场相机的标定方法 |
CN109035320A (zh) * | 2018-08-12 | 2018-12-18 | 浙江农林大学 | 基于单目视觉的深度提取方法 |
CN110009690A (zh) * | 2019-03-23 | 2019-07-12 | 西安电子科技大学 | 基于极线校正的双目立体视觉图像测量方法 |
CN110231013A (zh) * | 2019-05-08 | 2019-09-13 | 哈尔滨理工大学 | 一种基于双目视觉的车前行人检测与人车距离获取方法 |
CN110514114A (zh) * | 2019-07-30 | 2019-11-29 | 江苏海事职业技术学院 | 一种基于双目视觉的微小目标空间位置标定方法 |
CN111885490A (zh) * | 2020-07-24 | 2020-11-03 | 深圳市元征科技股份有限公司 | 一种社交距离提醒的方法、系统、设备及可读存储介质 |
CN112001339A (zh) * | 2020-08-27 | 2020-11-27 | 杭州电子科技大学 | 一种基于YOLO v4的行人社交距离实时监测方法 |
-
2021
- 2021-08-09 CN CN202110909295.4A patent/CN113793388A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010225130A (ja) * | 2009-03-24 | 2010-10-07 | Naoya Abe | 対人距離危険度警告装置 |
CN102175222A (zh) * | 2011-03-04 | 2011-09-07 | 南开大学 | 基于立体视觉的吊车避障系统 |
WO2013009980A1 (en) * | 2011-07-13 | 2013-01-17 | Alibaba Group Holding Limited | Ranking and searching method and apparatus based on interpersonal distances |
CN106780633A (zh) * | 2017-02-20 | 2017-05-31 | 北京创想智控科技有限公司 | 一种图像校正方法、装置及双目视觉系统 |
CN107301664A (zh) * | 2017-05-25 | 2017-10-27 | 天津大学 | 基于相似性测度函数的改进局部立体匹配方法 |
CN108776980A (zh) * | 2018-05-14 | 2018-11-09 | 南京工程学院 | 一种面向微透镜光场相机的标定方法 |
CN109035320A (zh) * | 2018-08-12 | 2018-12-18 | 浙江农林大学 | 基于单目视觉的深度提取方法 |
CN110009690A (zh) * | 2019-03-23 | 2019-07-12 | 西安电子科技大学 | 基于极线校正的双目立体视觉图像测量方法 |
CN110231013A (zh) * | 2019-05-08 | 2019-09-13 | 哈尔滨理工大学 | 一种基于双目视觉的车前行人检测与人车距离获取方法 |
CN110514114A (zh) * | 2019-07-30 | 2019-11-29 | 江苏海事职业技术学院 | 一种基于双目视觉的微小目标空间位置标定方法 |
CN111885490A (zh) * | 2020-07-24 | 2020-11-03 | 深圳市元征科技股份有限公司 | 一种社交距离提醒的方法、系统、设备及可读存储介质 |
CN112001339A (zh) * | 2020-08-27 | 2020-11-27 | 杭州电子科技大学 | 一种基于YOLO v4的行人社交距离实时监测方法 |
Non-Patent Citations (5)
Title |
---|
AIR汐: "双目立体匹配(一):局部匹配算法之区域匹配算法", pages 26, Retrieved from the Internet <URL:https://blog.csdn.net/u012366023/article/details/107866252> * |
JIAXU ZHANG等: "Deep Learning based Object Distance Measurement Method for Binocular Stereo Vision Blind Area. International Journal of Advanced Computer Science and Applications", 《INTERNATIONAL JOURNAL OF ADVANCED COMPUTER SCIENCE AND APPLICATIONS》, vol. 9, no. 9, 31 December 2020 (2020-12-31), pages 606 - 613 * |
JOANA B. VIEIRA等: "Neural correlates of social and non-social personal space intrusions: Role of defensive and peripersonal space systems in interpersonal distance regulation", 《SOCIAL NEUROSCIENCE》, vol. 15, no. 1, 10 January 2019 (2019-01-10), pages 36 - 51 * |
开心罗: "Bouguet极线校正进一步理解", pages 21, Retrieved from the Internet <URL:https://blog.csdn.net/luoru/article/details/49048287> * |
韩孝雷: "考虑人因的移动机器人导航系统设计及应用", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 2015, 15 February 2021 (2021-02-15), pages 140 - 688 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861407A (zh) * | 2023-02-28 | 2023-03-28 | 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) | 基于深度学习的安全距离检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105225482B (zh) | 基于双目立体视觉的车辆检测系统和方法 | |
CN110285793B (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
CN105894574B (zh) | 一种双目三维重建方法 | |
CN104173054B (zh) | 基于双目视觉技术的人体身高测量方法及其装置 | |
CN101887589B (zh) | 一种基于立体视觉的实拍低纹理图像重建方法 | |
CN109146930A (zh) | 一种电力机房设备红外与可见光图像配准方法 | |
CN102833486B (zh) | 一种实时调节视频图像中人脸显示比例的方法及装置 | |
CN108986070B (zh) | 一种基于高速视频测量的岩石裂缝扩展实验监测方法 | |
CN108470356B (zh) | 一种基于双目视觉的目标对象快速测距方法 | |
CN104574393A (zh) | 一种三维路面裂缝图像生成系统和方法 | |
US8428313B2 (en) | Object image correction apparatus and method for object identification | |
CN111996883B (zh) | 一种检测公路路面宽度的方法 | |
CN116188558B (zh) | 基于双目视觉的立体摄影测量方法 | |
CN115272271A (zh) | 一种基于双目立体视觉的管道缺陷检测与定位测距系统 | |
CN111028271A (zh) | 基于人体骨架检测的多摄像机人员三维定位跟踪系统 | |
CN113393439A (zh) | 一种基于深度学习的锻件缺陷检测方法 | |
CN106033614A (zh) | 一种强视差下的移动相机运动目标检测方法 | |
CN110189375A (zh) | 一种基于单目视觉测量的图像目标识别方法 | |
CN113793388A (zh) | 一种基于深度学习的立体视觉人际安全距离检测方法 | |
CN111105467A (zh) | 一种图像标定方法、装置及电子设备 | |
CN111898552B (zh) | 一种判别人员关注目标物的方法、装置及计算机设备 | |
JP4914870B2 (ja) | 混雑度計測装置、混雑度計測方法、混雑度計測プログラムおよびそのプログラムを記録した記録媒体 | |
CN111028299A (zh) | 基于图像中点属性数据集计算标定点空间距的系统和方法 | |
CN114299153A (zh) | 一种超大电力设备的相机阵列同步标定方法及系统 | |
CN113326793A (zh) | 一种远距离行人位置识别方法、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |