CN113793388A - 一种基于深度学习的立体视觉人际安全距离检测方法 - Google Patents

一种基于深度学习的立体视觉人际安全距离检测方法 Download PDF

Info

Publication number
CN113793388A
CN113793388A CN202110909295.4A CN202110909295A CN113793388A CN 113793388 A CN113793388 A CN 113793388A CN 202110909295 A CN202110909295 A CN 202110909295A CN 113793388 A CN113793388 A CN 113793388A
Authority
CN
China
Prior art keywords
camera
image
target
personnel
interpersonal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110909295.4A
Other languages
English (en)
Inventor
韩磊
张天程
刘黄骁烈
施展
郑胜男
黄晓华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Institute of Technology
Original Assignee
Nanjing Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Institute of Technology filed Critical Nanjing Institute of Technology
Priority to CN202110909295.4A priority Critical patent/CN113793388A/zh
Publication of CN113793388A publication Critical patent/CN113793388A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Abstract

本发明公开了一种基于深度学习的立体视觉人际安全距离检测方法,包括:基于平面棋盘靶标的双目视觉系统标定;利用双目相机采集场景图像;基于标定的相机参数,对采集的图像进行畸变校正和极线校正;将双目校正图像分别输入深度神经网络,进行人员目标检测,输出人员目标边框向量集;将左校正图像中的人员目标中心点作为参考点,在极线约束和边框约束下,在右校正图像中寻找匹配点,估计匹配点与参考点视差,计算参考点对应人员的三维坐标;根据人员三维坐标计算人际距离;通过大屏选框及语音提醒近距人员。本发明的人际距离检测方法自动化程度高、距离检测更准确、匹配计算复杂度低、检测实时性强。

Description

一种基于深度学习的立体视觉人际安全距离检测方法
技术领域
本发明属于计算机视觉、深度学习、目标检测领域,尤其涉及一种基于深度 学习的立体视觉人际安全距离检测方法。
背景技术
保持人际安全距离是疫情防控的重要手段之一。提高人际距离检测的自动 化、智能化对降低疫情防控人力成本并提升防控效率有着重要意义。在医院、银 行、车站、政府服务窗口等公共场所部署机器视觉系统,自动检测人际安全距离 具有新颖性和需求迫切性。
Naqiyuddin等人设计了一种可穿戴的人际距离检测系统,该系统由微控制 器、超声波传感器、LCD和蜂鸣器等构成,需要用户主动佩戴该装置,然后利 用超声波探测人际距离。Gad等人设计了基于视觉的人际距离检测系统,利用逆 透视模型将相机采集的视频变换为鸟瞰图,基于卡尔曼滤波器和速度模型跟踪并 估计人际距离,该方法不需要用户佩戴专用设备,但人员漏检概率大,且人际距 离估计误差大。Hou等人利用深度学习模型进行人际距离检测,提高了人员检测 的可靠性,但通过人员目标的像素距离估计人际距离,准确度不足;无独有偶, Bhambani等人也基于单目视觉系统和深度学习模型提出了口罩检测和人际距离 检测系统,同样存在深度距离估计准确度不及水平距离估计准确度的问题。现有个别基于立体视觉的人际安全距离估计方法,存在立体匹配计算复杂度高,难以 满足实时性要求。
面向人际安全距离检测的机器视觉系统及方法的研究是新冠疫情以来出现 的新需求,尽管出现了一些解决方案,但仍存在系统不易部署、人员漏检、人际 距离计算不准确、算法难以达到实时性等诸多问题。基于机器视觉系统,设计高 可靠性、高实时性的人际安全距离检测方法具有实用价值。
发明内容
发明目的:本发明目的是提供一种基于深度学习的立体视觉人际安全距离检 测方法,可简化系统部署,提高人员检测和距离估计准确度和系统可靠性。
技术方案:本发明提供一种基于深度学习的立体视觉人际安全距离检测方 法,具体包括以下步骤:
(1)基于平面棋盘靶标对双目视觉系统进行标定,并使用标定后双目视觉 系统的左相机CL和右相机CR分别采集人员聚集场景图像,分别记为Ileft和Iright
(2)基于标定的相机参数,对采集的图像进行畸变校正和极线校正,得到 双目校正图像,其中,左校正图像记为
Figure BDA0003202881710000021
右校正图像记为
Figure BDA0003202881710000022
(3)将双目校正图像分别输入深度神经网络,进行人员目标检测,输出人 员目标边框向量集,分别记为:FL和FR;每个边框向量的格式为(x,y,w,h),其 中,(x,y)表示人员目标边框左上角位置对应的像素坐标,w,h分别表示边框的宽 度和高度;
(4)将左校正图像中的人员目标中心点作为参考点,在极线约束和边框约 束下,对
Figure BDA0003202881710000023
中检测到的每个人员目标中心点p,在
Figure BDA0003202881710000024
中寻找立体匹配点p', 计算
Figure BDA0003202881710000025
中每个人员目标中心点p与匹配点p'的视差d,得到中心点p对应的人 员目标的三维坐标(Xp,Yp,Zp);
(5)根据人员三维坐标计算人际距离;
(6)根据设定的人际距离下限,对距离过近人员进行警示提醒。
进一步地,所述步骤(1)包括以下步骤:
(11)用双目视觉系统的左相机CL和右相机CR同时采集已知尺寸的平面棋 盘靶标图像,从3个角度拍摄平面棋盘靶标,得到3对平面棋盘靶标图像(分别 记为:
Figure BDA0003202881710000026
);
(12)对每幅平面棋盘靶标图像
Figure BDA0003202881710000027
检测角点像素坐标;
(13)不考虑相机畸变,利用平面棋盘靶标图像
Figure BDA0003202881710000028
Figure BDA0003202881710000029
的角点像素坐标,根据已知的平面靶标尺寸和物像方程确定左相 机CL和右相机CR的内参数和外参数初始值并利用极大似然估计优化内参数和 外参数;
(14)考虑相机径向畸变,利用平面棋盘靶标图像
Figure BDA00032028817100000210
Figure BDA00032028817100000211
的角点像素 坐标,估计左相机CL和右相机CR的畸变参数初始值;利用最小二乘法优化左右 两个相机的内参数、外参数和径向畸变参数,得到左相机CL的内参数
Figure BDA0003202881710000031
外参 数
Figure BDA0003202881710000032
径向畸变参数
Figure BDA0003202881710000033
径向畸变参数
Figure BDA0003202881710000034
和右相机CR的内参数
Figure BDA0003202881710000035
外参数
Figure BDA0003202881710000036
径向畸变参数
Figure BDA0003202881710000037
径向畸变参数
Figure BDA0003202881710000038
(15)根据左相机CL的外参数
Figure BDA0003202881710000039
和右相机CR的外参数
Figure BDA00032028817100000310
确定右相机CR相对于左相机CL的旋转变换矩阵R,右相机CR相对于左相机CL的平移变换矩阵 T。
进一步地,所述步骤(2)中包括如下步骤:
(21)径向畸变校正:首先,创建与Ileft等大小的空白图像
Figure BDA00032028817100000311
其次,对Ileft的每个像素坐标
Figure BDA00032028817100000312
根据左相机CL的内参数
Figure BDA00032028817100000313
及畸变参数
Figure BDA00032028817100000314
计 算径向畸变校正坐标((u,v)),并将Ileft
Figure BDA00032028817100000315
位置处像素的灰度值赋给
Figure BDA00032028817100000316
的 (u,v)位置的像素;再次,对
Figure BDA00032028817100000317
中空值像素,进行插值处理;最后,将
Figure BDA00032028817100000318
保存为
Figure BDA00032028817100000319
作为左图像Ileft畸变校正后的结果;同理,可得右图像Iright畸变校正后的结 果
Figure BDA00032028817100000320
(22)双目极线校正:首先,根据右相机CR相对于左相机CL的旋转变换矩 阵R,将CR的相机坐标系和CL的相机坐标系各旋转R矩阵表示旋转角度的一半 使两相机坐标系平行;其次,右相机CR相对于左相机CL的平移变换矩阵T,确 定极线对准矩阵Rp;最后,根据rL、rR、Rp的值,分别旋转左畸变校正图像
Figure BDA00032028817100000321
和右畸变校正图像
Figure BDA00032028817100000322
得到左极线校正图像
Figure BDA00032028817100000323
和右极线校正图像
Figure BDA00032028817100000324
(23)按照人员检测深度神经网络输入尺寸的要求,分别将左极线校正图像
Figure BDA00032028817100000325
和右极线校正图像
Figure BDA00032028817100000326
裁剪为大小为M×N双目校正图像,分别记为
Figure BDA00032028817100000327
Figure BDA00032028817100000328
进一步地,步骤(3)所述深度神经网络采用Yolov3目标检测网络,将检测 输出类别设置为Person;或采用Faster-RCNN等目标检测网络,通过后处理将输 出向量格式调整为(x,y,w,h)。
进一步地,所述步骤(4)包括以下步骤:
(41)读取左校正图像
Figure BDA0003202881710000041
及其人员目标边框向量集FL,按照从左到右,从 上到下的顺序,选择一个人员边框fL=(x,y,w,h),计算人员中心点坐标
Figure BDA0003202881710000042
(42)在左校正图像
Figure BDA0003202881710000043
上,以人员中心点p为中心,在左图像上选取m×n的 窗口WL作为立体匹配的支持区域;
(43)在右校正图像
Figure BDA0003202881710000044
中寻找与左校正图像
Figure BDA0003202881710000045
中人员中心点p对应的立体 匹配点p';
(44)根据左校正图像
Figure BDA0003202881710000046
的参考点p和右校正图像
Figure BDA0003202881710000047
的匹配点p'的像素 坐标,计算其视差d;
(45)根据标定的双目相机参数和参考点p和匹配点p'的视差值d,计算中 心点p对应的人员目标的三维坐标(Xp,Yp,Zp);
(46)如果左校正图像
Figure BDA0003202881710000048
中检测到的人员目标边框向量集FL中的边框已遍 历完毕,则结束匹配;否则,则跳转至(41)步骤继续进行下一个人员目标的三 维坐标计算。
有益效果:与现有技术相比,本发明的有益效果:实现了人员自动检测、人 际距离准确估计和距离过近预警。本发明的人际距离检测方法自动化程度高、距 离检测更准确、匹配计算复杂度低、检测实时性强。
附图说明
图1为本发明的流程图;
图2为本发明的双目相机示例图;
图3为本发明的平面棋盘靶标示意图;
图4为本发明的坐标系示意图;
图5为本发明的双目系统标定流程图;
图6为本发明的左相机采集场景图像示例;
图7为本发明的右相机采集场景图像示例;
图8为本发明的图像校正流程图;
图9为本发明的人员目标检测框图;
图10为本发明框选的人员目标示例1;
图11为本发明框选的人员目标示例2;
图12为本发明的立体匹配及视差计算流程图;
图13为本发明的双目视差示意图;
图14位本发明的测距误差测试曲线图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明提供一种基于深度学习的立体视觉人际安全距离检测方法,可以依托 双目视觉系统、深度学习开发平台、大屏显示系统等平台实施。如图1所示,具 体包括以下步骤:
步骤1:基于平面棋盘靶标对双目视觉系统进行标定,如图2所示,并使用 标定后双目视觉系统的左相机CL和右相机CR分别采集人员聚集场景图像,分别 记为Ileft和Iright
标定由左相机CL和右相机CR构成的双目视觉系统的参数,包括:左相机CL内参数:
Figure BDA0003202881710000051
左相机CL外参数:
Figure BDA0003202881710000052
左相 机CL径向畸变参数:
Figure BDA0003202881710000053
右相机CR内参数:
Figure BDA0003202881710000054
右 相机CR外参数:
Figure BDA0003202881710000055
右相机CR径向畸变参数
Figure BDA0003202881710000056
右相机 CR相对于左相机CL的旋转变换矩阵R;右相机CR相对于左相机CL的平移变换 矩阵T;具体地,左右相机内外参数中,fL、fR分别表示左、右相机焦距,
Figure BDA0003202881710000057
Figure BDA0003202881710000058
分别表示左相机传感器单位长度上的像素数,
Figure BDA0003202881710000059
分别表示右相机传感器单位长度上的像素数,
Figure BDA00032028817100000510
表示左相机的主点坐标,
Figure BDA00032028817100000511
表示右相机 的主点坐标,RL、RR分别表示左右相机的旋转矩阵,TL、TR分别表示左右相机 的平移矩阵。
双目系统标定时,采用如图3所示的已知方格尺寸的平面棋盘栅格作为靶 标,为了简化而不失一般性,可以靶标平面为基础建立世界坐标系 (OW-XWYWZW)。如图4所示,通常以相机光心为原点建立相机坐标系 (OC-XCYCZC),以主点为原点建立图像坐标系(OI-XIYI),以图像左上角为 原点像素为单位建立像素坐标系(Op-UV)。左右相机的外参数
Figure BDA0003202881710000061
用于完成世界坐标系向相机坐标系的变换,左右相机的内参数
Figure BDA0003202881710000062
用 于完成相机坐标系到像素坐标系的变换。右相机CR相对于左相机CL的旋转变换 矩阵R可由同一靶标下左右相机的外参数计算得到,同样,右相机CR相对于左 相机CL的平移变换矩阵T也可由同一靶标下左右相机的外参数计算得到。
标定方法如图5所示,包括如下步骤:
1)用双目系统的左相机CL和右相机CR同时采集已知尺寸的平面棋盘靶标 (见图3)图像,从3个角度拍摄平面棋盘靶标,得到3对平面棋盘靶标图像(分 别记为:
Figure BDA0003202881710000063
)。采集过程中保持双目视 觉系统的相对位置关系不变,变换双目系统相对于平面棋盘靶标的角度。
2)对每幅平面棋盘靶标图像
Figure BDA0003202881710000064
检测角点像素坐标。优选Harris算法在每幅平面棋盘靶标上检测角点,若采用图 3所示靶标,忽略外层角点,选取中间54个角点作为有效角点坐标集合。
3)不考虑相机畸变,利用平面棋盘靶标图像
Figure BDA0003202881710000065
Figure BDA0003202881710000066
的角点像素坐标,根据已知的平面靶标尺寸和物像方程确定左相 机CL和右相机CR的内参和外参初始值并利用极大似然估计优化参数。对于每个 相机,利用其采集的3幅平面棋盘靶标图像,计算出3个单应矩阵;再由3个单 应矩阵确定相机的内参数,其中
Figure BDA0003202881710000067
Figure BDA0003202881710000068
两个分数参数是作为一个整体确 定初值的,可以取相机焦距标称值作为fL和fR的初值,然后确定
Figure BDA0003202881710000069
Figure BDA00032028817100000610
的初值。 两相机的内参矩阵初始值确定后,选取一对平面靶标图像(例如:
Figure BDA00032028817100000611
), 分别随机选取4个角点的像素坐标,求解该角度下的外参矩阵初值;然后,利用 所有角点的坐标值和极大似然法优化分别优化两个相机的内参数和外参数。
4)考虑相机径向畸变,利用平面棋盘靶标图像
Figure BDA0003202881710000071
Figure BDA0003202881710000072
的角点像素坐标, 估计左相机CL和右相机CR的畸变参数初始值;利用最小二乘法优化两个相机的 内参数、外参数和径向畸变参数,得到左相机CL
Figure BDA0003202881710000073
和右相机 CR
Figure BDA0003202881710000074
5)根据左相机CL
Figure BDA0003202881710000075
和右相机CR
Figure BDA0003202881710000076
确定右相机CR相对于左相机CL的旋转变换矩阵R,右相机CR相对于左相机CL的平移变换矩阵T。在确定左右 相机采集一对靶标图像时的外参矩阵后,可以推导出两相机之间的变换关系(R, T),公式为:R=RRRLT,T=TR-RTL
使用标定后双目视觉系统的左相机CL和右相机CR分别采集人员聚集场景 的1对图像,分别记为Ileft和Iright。图6、图7给出一对场景图像示例,场景中人 员已做马赛克处理。
步骤2:基于标定的相机参数,对采集的图像进行畸变校正和极线校正,得 到双目校正图像,分别记为
Figure BDA0003202881710000077
Figure BDA0003202881710000078
在双目系统的相机参数标定已知的情况下,对采集的图像进行校正有利于提 高立体匹配的准确度和效率。如图8所示,双目图像校正方法包括如下步骤:
1)径向畸变校正:首先,创建与Ileft等大小的空白图像
Figure BDA0003202881710000079
其次,对Ileft的 每个像素坐标
Figure BDA00032028817100000710
根据左相机CL的内参数
Figure BDA00032028817100000711
及径向畸变参数
Figure BDA00032028817100000712
计算径向畸变校正坐标((u,v)),即
Figure BDA00032028817100000713
Figure BDA00032028817100000714
这里(x,y)是像素坐标(u,v)对应的图像坐 标,然后将Ileft
Figure BDA00032028817100000715
位置处像素的灰度值赋给
Figure BDA00032028817100000716
的(u,v)位置的像素;再次, 对
Figure BDA00032028817100000717
中空值像素,进行插值处理,插值算法可优选双线性插值算法;最后,将
Figure BDA00032028817100000718
保存为
Figure BDA00032028817100000719
作为左图像Ileft畸变校正后的结果。同理,可得右图像Iright畸变校正 后的结果
Figure BDA00032028817100000720
2)双目极线校正:首先,根据右相机CR相对于左相机CL的旋转变换矩阵R, 将CR的相机坐标系和CL的相机坐标系各旋转R矩阵表示旋转角度的一半(即:R=rL*(rR)-1,rL和rR分别表示校正时左右相机内参数需左乘的矩阵),使两相 机坐标系平行;其次,右相机CR相对于左相机CL的平移变换矩阵T,确定极线 对准矩阵Rp;最后,根据rL、rR、Rp的值,分别旋转左畸变校正图像
Figure BDA0003202881710000081
和右 畸变校正图像
Figure BDA0003202881710000082
得到左极线校正图像
Figure BDA0003202881710000083
和右极线校正图像
Figure BDA0003202881710000084
步骤3:将双目校正图像分别输入深度神经网络,进行人员目标检测,输出 人员目标边框向量集,分别记为:FL和FR;每个边框向量的格式为(x,y,w,h), 其中,(x,y)表示人员目标边框左上角位置对应的像素坐标,w,h分别表示边框的 宽度和高度。
按照人员检测深度神经网络输入尺寸的要求,分别将左极线校正图像
Figure BDA0003202881710000085
和右极线校正图像
Figure BDA0003202881710000086
裁剪为大小为M×N双目校正图像,分别记为
Figure BDA0003202881710000087
Figure BDA0003202881710000088
如果优选Yolov3作为人员目标检测深度神经网络,则将校正图像裁剪为 416×416的大小。
利用人员目标检测深度神经网络,分别在
Figure BDA0003202881710000089
Figure BDA00032028817100000810
上检测人员目标,得到 人员目标边框向量集,记为:FL和FR,每个边框向量(fL∈FL或fR∈FR)的格 式为(x,y,w,h),其中,(x,y)表示人员目标边框左上角位置对应的像素坐标,w,h 分别表示边框的宽度和高度(以像素为单位)。图9是人员目标检测示意图,其 中,人员目标检测深度神经网络,优选Yolov3目标检测网络,将检测输出类别 设置为Person;也可采用Faster-RCNN等目标检测网络,通过后处理将输出向量 格式调整为(x,y,w,h)。根据目标检测网络输出的向量集,可以框选出人员目标, 图10、图11是按照目标检测网络输出向量而框选出的人员图像示例。
步骤4:将左校正图像中的人员目标中心点作为参考点,在极线约束和边框 约束下,对
Figure BDA00032028817100000811
中检测到的每个人员目标中心点p,在
Figure BDA00032028817100000812
中寻找立体匹配点p', 计算
Figure BDA00032028817100000813
中每个人员目标中心点p与匹配点p'的视差d,得到中心点p对应的人 员目标的三维坐标(Xp,Yp,Zp);如图12所示,包括如下步骤:
1)读取左校正图像
Figure BDA00032028817100000814
及其人员目标边框向量集FL,按照从左到右,从上 到下的顺序,选择一个人员边框fL=(x,y,w,h),计算人员中心点坐标
Figure BDA0003202881710000091
2)在左校正图像
Figure BDA0003202881710000092
上,以人员中心点p为中心,在左图像上选取m×n的窗 口WL作为立体匹配的支持区域。优选地,取10×10的窗口作为支持区域。
3)在右校正图像
Figure BDA0003202881710000093
中寻找与左校正图像
Figure BDA0003202881710000094
中人员中心点p对应的立体匹 配点p'。具体地,匹配的约束条件是极线约束和边框约束,其中,极线约束是 指,p'的行坐标值应与p的行坐标值相等;边框约束是指,p'应落入右校正图 像
Figure BDA0003202881710000095
的人员目标边框向量集FR中的某个边框内。匹配的相似性度量准则是基于 支持区域的平方差之和的代价函数,即以p为中心的支持区域WL和以p'为中心 的支持区域WR内所有对应像素灰度差的平方之和。匹配的搜索策略是“赢家通 吃(Winner takes all)”,即满足约束条件的取得最小度量值的点被选为匹配点。
4)根据左校正图像
Figure BDA0003202881710000096
的参考点p和右校正图像
Figure BDA0003202881710000097
的匹配点p'的像素坐 标,计算其视差d。如图13所示,经过校正的双目图像,参考点和匹配点只有 一个维度坐标不同,视差d=uL-uR
5)根据标定的双目相机参数和参考点p和匹配点p'的视差值d,计算中心 点p对应的人员目标的三维坐标(Xp,Yp,Zp)。深度维度Zp的计算方法是 Zp=(B·fL)/d,这里,B由平移矩阵T的X分量计算。Xp,Yp可由p的像素坐标 与左相机内参矩阵的逆矩阵相乘得到。
6)如果左校正图像
Figure BDA0003202881710000098
中检测到的人员目标边框向量集FL中的边框已遍历 完毕,则结束匹配;否则,则跳转至第1)步骤继续进行下一个人员目标的三维 坐标计算。
步骤5:根据人员三维坐标计算人际距离。
根据场景中人员目标的三维坐标,计算人际距离。计算人际距离的方法是, 假设已得到两个人员的三维坐标为(Xp1,Yp1,Zp1)和(Xp2,Yp2,Zp2),则两个人的距离 为
Figure BDA0003202881710000101
步骤6:根据设定的人际距离下限,对距离过近人员进行警示提醒。
人员距离下限可根据实际情况设置,比如设置为1米。警示提醒可以通过大 屏显示和语音提示配合使用。
为验证本发明的人际安全距离检测方法的实用性,在以K210芯片为处理核 心的勘智开发板上,扩展如图1所示的双目摄像头,实现了本发明所公开的检测 方法。该方法能够在有限的计算资源下对人员场景视频流进行实时检测和近距预 警。其运行时间低于Ahamad等人报道方法运行时间2个数量级,满足高实时要 求。
图14展示了用双目基线60毫米的立体视觉系统采集已知人员目标准确距离 的设定场景,运行本发明的人际安全距离检测方法,得到的测量距离与实际距离 之间的关系曲线。观察该图可知,尽管双目立体视觉系统测量机理约束下,测量 误差随实际间距呈上升趋势,但相对误差比例明显低于1%,远低于Gad等人所 报道方法取得的1.69%、2.17%、3.45%的误差;也低于Bhambani等人方法2% 以上的误差。

Claims (5)

1.一种基于深度学习的立体视觉人际安全距离检测方法,其特征在于,包括以下步骤:
(1)基于平面棋盘靶标对双目视觉系统进行标定,并使用标定后双目视觉系统的左相机CL和右相机CR分别采集人员聚集场景图像,分别记为Ileft和Iright
(2)基于标定的相机参数,对采集的图像进行畸变校正和极线校正,得到双目校正图像,其中,左校正图像记为
Figure FDA0003202881700000011
右校正图像记为
Figure FDA0003202881700000012
(3)将双目校正图像分别输入深度神经网络,进行人员目标检测,输出人员目标边框向量集,分别记为:FL和FR;每个边框向量的格式为(x,y,w,h),其中,(x,y)表示人员目标边框左上角位置对应的像素坐标,w,h分别表示边框的宽度和高度;
(4)将左校正图像中的人员目标中心点作为参考点,在极线约束和边框约束下,对
Figure FDA0003202881700000013
中检测到的每个人员目标中心点p,在
Figure FDA0003202881700000014
中寻找立体匹配点p',计算
Figure FDA0003202881700000015
中每个人员目标中心点p与匹配点p'的视差d,得到中心点p对应的人员目标的三维坐标(Xp,Yp,Zp);
(5)根据人员三维坐标计算人际距离;
(6)根据设定的人际距离下限,对距离过近人员进行警示提醒。
2.根据权利要求1所述的基于深度学习的立体视觉人际安全距离检测方法,其特征在于,所述步骤(1)包括以下步骤:
(11)用双目视觉系统的左相机CL和右相机CR同时采集已知尺寸的平面棋盘靶标图像,从3个角度拍摄平面棋盘靶标,得到3对平面棋盘靶标图像(分别记为:
Figure FDA0003202881700000016
);
(12)对每幅平面棋盘靶标图像
Figure FDA0003202881700000017
检测角点像素坐标;
(13)不考虑相机畸变,利用平面棋盘靶标图像
Figure FDA0003202881700000018
Figure FDA0003202881700000019
的角点像素坐标,根据已知的平面靶标尺寸、物像方程确定左相机CL和右相机CR的内参数和外参数初始值并利用极大似然估计优化内参数和外参数;
(14)考虑相机径向畸变,利用平面棋盘靶标图像
Figure FDA0003202881700000021
Figure FDA0003202881700000022
的角点像素坐标,估计左相机CL和右相机CR的畸变参数初始值;利用最小二乘法优化左右两个相机的内参数、外参数和径向畸变参数,得到左相机CL的内参数
Figure FDA0003202881700000023
外参数
Figure FDA0003202881700000024
径向畸变系数
Figure FDA0003202881700000025
径向畸变系数
Figure FDA0003202881700000026
和右相机CR的内参数
Figure FDA0003202881700000027
外参数
Figure FDA0003202881700000028
径向畸变系数
Figure FDA0003202881700000029
径向畸变系数
Figure FDA00032028817000000210
(15)根据左相机CL的外参数
Figure FDA00032028817000000211
和右相机CR的外参数
Figure FDA00032028817000000212
确定右相机CR相对于左相机CL的旋转变换矩阵R,右相机CR相对于左相机CL的平移变换矩阵T。
3.根据权利要求1所述的基于深度学习的立体视觉人际安全距离检测方法,其特征在于,所述步骤(2)中包括如下步骤:
(21)径向畸变校正:首先,创建与左图像Ileft等大小的空白图像
Figure FDA00032028817000000213
其次,对左图像Ileft的每个像素坐标
Figure FDA00032028817000000214
根据左相机CL的内参数
Figure FDA00032028817000000215
及径向畸变参数
Figure FDA00032028817000000216
计算径向畸变校正坐标((u,v)),并将Ileft
Figure FDA00032028817000000217
位置处像素的灰度值赋给
Figure FDA00032028817000000218
的(u,v)位置的像素;再次,对
Figure FDA00032028817000000219
中空值像素,进行插值处理;最后,将
Figure FDA00032028817000000220
保存为
Figure FDA00032028817000000221
作为左图像Ileft畸变校正后的结果;同理,可得右图像Iright畸变校正后的结果
Figure FDA00032028817000000222
(22)双目极线校正:首先,根据右相机CR相对于左相机CL的旋转变换矩阵R,将CR的相机坐标系和CL的相机坐标系各旋转R矩阵表示旋转角度的一半使两相机坐标系平行;其次,右相机CR相对于左相机CL的平移变换矩阵T,确定极线对准矩阵Rp;最后,根据rL、rR、Rp的值,分别旋转左畸变校正图像
Figure FDA00032028817000000223
和右畸变校正图像
Figure FDA00032028817000000224
得到左极线校正图像
Figure FDA00032028817000000225
和右极线校正图像
Figure FDA00032028817000000226
(23)按照人员检测深度神经网络输入尺寸的要求,分别将左极线校正图像
Figure FDA00032028817000000227
和右极线校正图像
Figure FDA00032028817000000228
裁剪为大小为M×N双目校正图像,分别记为
Figure FDA00032028817000000229
Figure FDA00032028817000000230
4.根据权利要求1所述的基于深度学习的立体视觉人际安全距离检测方法,其特征在于,步骤(3)所述深度神经网络采用Yolov3目标检测网络,将检测输出类别设置为Person;或采用Faster-RCNN等目标检测网络,通过后处理将输出向量格式调整为(x,y,w,h)。
5.根据权利要求1所述的基于深度学习的立体视觉人际安全距离检测方法,其特征在于,所述步骤(4)包括以下步骤:
(41)读取左校正图像
Figure FDA0003202881700000031
及其人员目标边框向量集FL,按照从左到右,从上到下的顺序,选择一个人员边框fL=(x,y,w,h),计算人员中心点坐标
Figure FDA0003202881700000032
(42)在左校正图像
Figure FDA0003202881700000033
上,以人员中心点p为中心,在左图像上选取m×n的窗口WL作为立体匹配的支持区域;
(43)在右校正图像
Figure FDA0003202881700000034
中寻找与左校正图像
Figure FDA0003202881700000035
中人员中心点p对应的立体匹配点p';
(44)根据左校正图像
Figure FDA0003202881700000036
的参考点p和右校正图像
Figure FDA0003202881700000037
的匹配点p'的像素坐标,计算其视差d;
(45)根据标定的双目相机参数和参考点p和匹配点p'的视差值d,计算中心点p对应的人员目标的三维坐标(Xp,Yp,Zp);
(46)如果左校正图像
Figure FDA0003202881700000038
中检测到的人员目标边框向量集FL中的边框已遍历完毕,则结束匹配;否则,则跳转至(41)步骤继续进行下一个人员目标的三维坐标计算。
CN202110909295.4A 2021-08-09 2021-08-09 一种基于深度学习的立体视觉人际安全距离检测方法 Pending CN113793388A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110909295.4A CN113793388A (zh) 2021-08-09 2021-08-09 一种基于深度学习的立体视觉人际安全距离检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110909295.4A CN113793388A (zh) 2021-08-09 2021-08-09 一种基于深度学习的立体视觉人际安全距离检测方法

Publications (1)

Publication Number Publication Date
CN113793388A true CN113793388A (zh) 2021-12-14

Family

ID=79181554

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110909295.4A Pending CN113793388A (zh) 2021-08-09 2021-08-09 一种基于深度学习的立体视觉人际安全距离检测方法

Country Status (1)

Country Link
CN (1) CN113793388A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861407A (zh) * 2023-02-28 2023-03-28 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) 基于深度学习的安全距离检测方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010225130A (ja) * 2009-03-24 2010-10-07 Naoya Abe 対人距離危険度警告装置
CN102175222A (zh) * 2011-03-04 2011-09-07 南开大学 基于立体视觉的吊车避障系统
WO2013009980A1 (en) * 2011-07-13 2013-01-17 Alibaba Group Holding Limited Ranking and searching method and apparatus based on interpersonal distances
CN106780633A (zh) * 2017-02-20 2017-05-31 北京创想智控科技有限公司 一种图像校正方法、装置及双目视觉系统
CN107301664A (zh) * 2017-05-25 2017-10-27 天津大学 基于相似性测度函数的改进局部立体匹配方法
CN108776980A (zh) * 2018-05-14 2018-11-09 南京工程学院 一种面向微透镜光场相机的标定方法
CN109035320A (zh) * 2018-08-12 2018-12-18 浙江农林大学 基于单目视觉的深度提取方法
CN110009690A (zh) * 2019-03-23 2019-07-12 西安电子科技大学 基于极线校正的双目立体视觉图像测量方法
CN110231013A (zh) * 2019-05-08 2019-09-13 哈尔滨理工大学 一种基于双目视觉的车前行人检测与人车距离获取方法
CN110514114A (zh) * 2019-07-30 2019-11-29 江苏海事职业技术学院 一种基于双目视觉的微小目标空间位置标定方法
CN111885490A (zh) * 2020-07-24 2020-11-03 深圳市元征科技股份有限公司 一种社交距离提醒的方法、系统、设备及可读存储介质
CN112001339A (zh) * 2020-08-27 2020-11-27 杭州电子科技大学 一种基于YOLO v4的行人社交距离实时监测方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010225130A (ja) * 2009-03-24 2010-10-07 Naoya Abe 対人距離危険度警告装置
CN102175222A (zh) * 2011-03-04 2011-09-07 南开大学 基于立体视觉的吊车避障系统
WO2013009980A1 (en) * 2011-07-13 2013-01-17 Alibaba Group Holding Limited Ranking and searching method and apparatus based on interpersonal distances
CN106780633A (zh) * 2017-02-20 2017-05-31 北京创想智控科技有限公司 一种图像校正方法、装置及双目视觉系统
CN107301664A (zh) * 2017-05-25 2017-10-27 天津大学 基于相似性测度函数的改进局部立体匹配方法
CN108776980A (zh) * 2018-05-14 2018-11-09 南京工程学院 一种面向微透镜光场相机的标定方法
CN109035320A (zh) * 2018-08-12 2018-12-18 浙江农林大学 基于单目视觉的深度提取方法
CN110009690A (zh) * 2019-03-23 2019-07-12 西安电子科技大学 基于极线校正的双目立体视觉图像测量方法
CN110231013A (zh) * 2019-05-08 2019-09-13 哈尔滨理工大学 一种基于双目视觉的车前行人检测与人车距离获取方法
CN110514114A (zh) * 2019-07-30 2019-11-29 江苏海事职业技术学院 一种基于双目视觉的微小目标空间位置标定方法
CN111885490A (zh) * 2020-07-24 2020-11-03 深圳市元征科技股份有限公司 一种社交距离提醒的方法、系统、设备及可读存储介质
CN112001339A (zh) * 2020-08-27 2020-11-27 杭州电子科技大学 一种基于YOLO v4的行人社交距离实时监测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
AIR汐: "双目立体匹配(一):局部匹配算法之区域匹配算法", pages 26, Retrieved from the Internet <URL:https://blog.csdn.net/u012366023/article/details/107866252> *
JIAXU ZHANG等: "Deep Learning based Object Distance Measurement Method for Binocular Stereo Vision Blind Area. International Journal of Advanced Computer Science and Applications", 《INTERNATIONAL JOURNAL OF ADVANCED COMPUTER SCIENCE AND APPLICATIONS》, vol. 9, no. 9, 31 December 2020 (2020-12-31), pages 606 - 613 *
JOANA B. VIEIRA等: "Neural correlates of social and non-social personal space intrusions: Role of defensive and peripersonal space systems in interpersonal distance regulation", 《SOCIAL NEUROSCIENCE》, vol. 15, no. 1, 10 January 2019 (2019-01-10), pages 36 - 51 *
开心罗: "Bouguet极线校正进一步理解", pages 21, Retrieved from the Internet <URL:https://blog.csdn.net/luoru/article/details/49048287> *
韩孝雷: "考虑人因的移动机器人导航系统设计及应用", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 2015, 15 February 2021 (2021-02-15), pages 140 - 688 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115861407A (zh) * 2023-02-28 2023-03-28 山东未来网络研究院(紫金山实验室工业互联网创新应用基地) 基于深度学习的安全距离检测方法及系统

Similar Documents

Publication Publication Date Title
CN105225482B (zh) 基于双目立体视觉的车辆检测系统和方法
CN110285793B (zh) 一种基于双目立体视觉系统的车辆智能测轨迹方法
CN105894574B (zh) 一种双目三维重建方法
CN104173054B (zh) 基于双目视觉技术的人体身高测量方法及其装置
CN101887589B (zh) 一种基于立体视觉的实拍低纹理图像重建方法
CN109146930A (zh) 一种电力机房设备红外与可见光图像配准方法
CN102833486B (zh) 一种实时调节视频图像中人脸显示比例的方法及装置
CN108986070B (zh) 一种基于高速视频测量的岩石裂缝扩展实验监测方法
CN108470356B (zh) 一种基于双目视觉的目标对象快速测距方法
CN104574393A (zh) 一种三维路面裂缝图像生成系统和方法
US8428313B2 (en) Object image correction apparatus and method for object identification
CN111996883B (zh) 一种检测公路路面宽度的方法
CN116188558B (zh) 基于双目视觉的立体摄影测量方法
CN115272271A (zh) 一种基于双目立体视觉的管道缺陷检测与定位测距系统
CN111028271A (zh) 基于人体骨架检测的多摄像机人员三维定位跟踪系统
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
CN106033614A (zh) 一种强视差下的移动相机运动目标检测方法
CN110189375A (zh) 一种基于单目视觉测量的图像目标识别方法
CN113793388A (zh) 一种基于深度学习的立体视觉人际安全距离检测方法
CN111105467A (zh) 一种图像标定方法、装置及电子设备
CN111898552B (zh) 一种判别人员关注目标物的方法、装置及计算机设备
JP4914870B2 (ja) 混雑度計測装置、混雑度計測方法、混雑度計測プログラムおよびそのプログラムを記録した記録媒体
CN111028299A (zh) 基于图像中点属性数据集计算标定点空间距的系统和方法
CN114299153A (zh) 一种超大电力设备的相机阵列同步标定方法及系统
CN113326793A (zh) 一种远距离行人位置识别方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination