CN114268728A - 一种无人作业车辆协同记录被破坏现场的方法 - Google Patents
一种无人作业车辆协同记录被破坏现场的方法 Download PDFInfo
- Publication number
- CN114268728A CN114268728A CN202210183629.9A CN202210183629A CN114268728A CN 114268728 A CN114268728 A CN 114268728A CN 202210183629 A CN202210183629 A CN 202210183629A CN 114268728 A CN114268728 A CN 114268728A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- recording
- damaged
- dynamic map
- site
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种无人作业车辆协同记录被破坏现场的方法,其包括:通过被破坏车辆检测被破坏行为并向服务器发送破坏记录报文请求,服务器挑选同一区域内的记录车辆并将请求记录报文发送给记录车辆;被破坏车辆生成并发送动态地图给服务器,再由服务器发送给记录车辆;记录车辆接收并整合动态地图邻接矩阵后,进行路径选取,前往破坏现场进行记录。本发明通过多车协同,可以充分利用无人驾驶车辆的摄像头,最大程度记录下破坏现场的人员、破坏行为等信息,为事后维权提供有力证据。
Description
技术领域
本发明属于无人驾驶技术领域,具体涉及一种无人作业车辆协同记录被破坏车辆现场的方法。
背景技术
无人作业车辆如无人洗地机、无人扫地车等,其工作场所为固定区域,一般存储有该区域地图信息,能够在此区域内进行无人驾驶作业,同时可以与服务器端通信并交换数据。
目前,一部分车辆被破坏后,具有单车报警系统,例如电动自行车的防盗铃:当车辆检测到过大的震动后,会通过蜂鸣器发出警报。
单车报警记录系统存在缺点:1)车辆受到破坏时可能部分传感器已经失效,无法记录被破坏的现场情况;2)被破坏车辆摄像头可能拍摄角度有限,无法清晰记录破坏者的特征。
由于无人作业车辆工作时无人监护,在受到外界破坏行为时,车辆所有方/监护方无法快速给予警示。因此,无人驾驶的车辆有必要配备相应的警示与行为记录功能,来维护自身的安全。
发明内容
针对现有技术上述问题,本专利旨在提供一种无人作业车辆协同记录被破坏现场的方法,通过受破坏后记录的方式,为事后维权提供有力证据。该方法采用一种新型的维护车辆安全的信息采集处理方法,通过被破坏车辆的传感器采集信息判断车辆是否受到破坏,然后通过车辆之间的网络连接,调度同一区域内的其它车辆记录破坏者的破坏行为。
为此,本发明提供一种无人作业车辆协同记录被破坏现场的方法,其包括:
(1)被破坏车辆检测破坏行为,并向服务器发送破坏记录报文请求;
(2)服务器接收到被破坏车辆发送的请求后,挑选记录车辆,并向记录车辆发送请求记录报文;
(3)被破坏车辆生成并发送动态地图给服务器,再由服务器发送给记录车辆;
(4)记录车辆接收并整合动态地图邻接矩阵后,通过路径选取前往被破坏现场;
(5)记录车辆选取目标车-人对,记录车辆开始进行破坏现场记录。
进一步的,所述破坏记录报文载荷包含:用于标识此报文的特殊字段、被破坏车辆的身份信息、被破坏车辆的GPS。
进一步的,所述被破坏车辆生成与发送动态地图包括如下步骤:
(1)被破坏车辆通过激光雷达采集点云;
(2)剔除激光雷达采集点云无效信息;
(3)对完成剔除步骤的点云进行聚类;
(4)对相邻发送间隔采集得到的点云经过上述聚类得到的点云类进行匹配,得到匹配类对;
(5)进行被破坏车辆周围障碍物方向判定,并通过障碍物的方向计算阻塞区间;
(6)将存储的静态地图邻接矩阵生成被破坏车辆的新节点得到动态地图邻接矩阵;
(7)被破坏车辆发送动态地图的邻接矩阵以及被破坏车辆自己所在的节点给服务器,服务器再将这些信息发送给记录车辆。
进一步的,所述障碍物方向判定步骤如下:
(1)被破坏车辆获取GPS信息车辆方向角;
(2)被破坏车辆读取存储地图信息中当前位置道路方向角;
(3)被破坏车辆计算左阻塞角度区间与右阻塞角度区间;
(4)计算所有静态障碍物点云类中心方位角;
(5)判断静态障碍物点云类中心方位角是否位于左阻塞区间与右阻塞区间,设置阻塞标志位。
进一步的,所述生成动态地图邻接矩阵的步骤包括如下:
(1)在静态地图邻接矩阵中新增对应被破坏车辆节点的行与列,并初始化对应静态地图的邻接矩阵的行与列,得到初始的动态地图邻接矩阵;
(2)获取存储的静态地图中车辆当前位置道路始末节点编号,对车身的左右方节点编号进行标记;
(3)根据设置好的阻塞标志位修改初始的动态地图邻接矩阵,得到最终的动态地图邻接矩阵。
进一步的,所述接收并整合动态地图邻接矩阵的步骤包括如下:
(1)在接收的动态地图邻接矩阵中新增记录车辆节点的行与列,并初始化对应动态地图的邻接矩阵的行与列,得到初始的动态地图邻接矩阵。
(2)记录车辆获取存储的静态地图中记录车辆当前道路位置始末位置节点编号,对车身的左右方节点编号进行标记;
(3)将初始的动态地图邻接矩阵中对应车身节点的行与列编号元素做可到达性标注,完成动态地图邻接矩阵的整合。
进一步的,所述记录车辆选取目标车-人对包括如下步骤:
(1)调用记录车辆预先保存的深度学习模型,识别标注出图像中的所有车辆与人体矩形框;
(2)在图像中选取任意一个车辆矩形框与人体矩形框,计算其模拟距离;
(3)遍历所有识别出的车辆与人体矩形框。
进一步的,当选取完目标车-人对后,记录车辆进行拍摄角度与距离校正。
进一步的,所述记录车辆进行拍摄角度与距离校正包括如下步骤:
(1)计算记录车辆的横向偏移校正角度;
(2)控制记录车辆转动偏移校正角度;
(3)计算车-人对图像矩形框所占像素块大小,若小于设定阈值,则车辆向前行驶适当距离,直到车-人对图像矩形框所占像素大小大于设定阈值。
本发明的有益效果如下:
1)从第三人称视角记录破坏现场,可以最大程度记录下破坏现场的人员、破坏行为等信息。通过收集多样化的破坏现场证据,可以作为维护车辆所有者权益的筹码。
2)可以充分利用无人驾驶车辆的摄像头,减少了在单个车辆上的摄像头数量依赖。单车若要记录可能来自各方位的破坏,需装置多角度摄像头,多车协同,可互为潜在的记录者。
3)采用了动态地图的生成的方法,避免了破坏现场附近如果受到了其它物体的遮挡,导致记录车辆到达后无法选取到合适的记录角度。通过动态地图,记录车辆可以获得额外的地图信息,从而通过最短路径算法选择一条新的路径前往目的地。
4)常规的通过深度学习模型只能识别出车辆和路上的行人,本专利采用记录角度自动校正的模式,可以选取出可能的破坏现场的车-人对,并且自动调整拍摄角度,得到相对角度较好,记录信息相对完整的破坏现场视频数据。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。
图1为本发明实施例总体流程图;
图2为本发明实施例破坏状态开启报文格式示意图;
图3为本发明实施例记录请求报文格式示意图;
图4为本发明实施例现实场景简略地图示意图;
图5为本发明实施例动态地图生成流程图;
图6为本发明实施例障碍物方向判定流程图;
图7为本发明实施例左右阻塞区间场景示意图;
图8为本发明实施例动态地图邻接矩阵生成流程图;
图9为本发明实施例静态地图邻接矩阵示意图,为了便于观察,矩阵中为0的元素没有填写;
图10为本发明实施例被破坏发送的动态地图邻接矩阵示意图,为了便于观察,矩阵中为0的元素没有填写;
图11为本发明实施例记录车辆接收整合动态地图邻接矩阵流程图;
图12为本发明实施例记录车辆完成接收整合后邻接矩阵示意图,为了便于观察,矩阵中为0的元素没有填写;
图13为本发明实施例目标车-人对选取流程图;
图14为本发明实施例目标车-人对选取示意图;
图15为本发明实施例记录车辆进行拍摄角度与距离校正流程图;
图16为本发明实施例记录与发送数据空间转换图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更为清楚,下面将结合附图对本发明实施例中的技术方案进行详细描述。本发明一种无人作业车辆协同记录被破坏现场的方法实施例的整体流程如图1所示。
步骤S1:被破坏车辆首先需要检测破坏行为。一个常规的实施方式为:车辆配备有震动传感器,每秒读取震动传感器的参数,与设定阈值比较。若大于设定阈值,则将车辆状态置为警戒状态,车辆进入警戒状态后,若后续10秒钟中每秒的震动传感器读数中有3个超过阈值,则视为车辆受到了破坏行为,同时车辆停止运动;若后续10秒钟的震动传感器均未超过阈值,则取消警戒状态。
步骤S2:建立被破坏车辆和服务器之间的通信连接,被破坏车辆发送请求破坏记录报文。当某车辆经过步骤S1确认受到破坏行为后,需要通知当前区域内的一辆其它车辆来记录破坏现场的行为。受到破坏的车辆被称为被破坏车辆,其它用来记录破坏现场的车辆被称为记录车辆。由于车辆与车辆之间的直接通信目前技术尚不成熟,本发明实施例内采用的方式是车辆与服务器通信,即被破坏车辆与服务器通信传输数据,服务器再与记录车辆通信传输数据。具体步骤如下:
S201、如果被破坏车辆未与服务器建立连接,建立被破坏车辆与服务器之间的通讯连接,如果被破坏车辆已与服务器建立了连接,则跳过此步骤。被破坏车辆通过TCP(Transmission Control Protocol,传输控制协议)连接建立与服务器的连接(由于被破坏车辆需要与服务器持续通信,故这里选择与服务器建立连接的TCP协议更加合适,这样可以方便车辆持续与服务器进行通信)。若被破坏车辆之前已经由于某种用途,如服务器需要监视该车辆的位置或其它信息,已经与服务器建立了连接,则可以跳过此步骤。
S202、被破坏车辆向服务器发送破坏状态开启报文,这是一个特殊的报文,
以下是本实施例中这个破坏状态开启报文的格式:
如图2,将此TCP报文载荷的第一个字节置为0x7E这个固定字节。当服务器接收并解析完报文后,若发现报文第一个字节为0x7E,则确定这是一个破坏状态开启报文。之后报文的两个字节是被破坏车辆的ID号,每辆车辆拥有唯一的一个此ID号,服务器接收到此ID号后,与存储的所有车辆ID号比较,即可以知道具体被破坏车辆是哪一辆。后续报文的82个字节是存储的GPS信息,其中包括了经度、纬度等信息。需要说明的是,本实施例中选取的第一个字节为0x7E,并不要求所有实施例中均采用此字节,此字节可以人为自行规定。
S203、服务器接收到破坏状态开启报文后,在系统车辆信息中将接收到ID对应的车辆状态更改为:受破坏。这样当TCP连接由于意外断开后,便于服务器找到具体的被破坏车辆并恢复连接。
步骤S3:服务器接收到被破坏车辆发送的请求后,挑选记录车辆,并向其发送请求记录报文。服务器需要挑选被破坏车辆附近其它相对较近的车辆前往现场记录,通过被破坏车辆与服务器中实时更新的其它车辆GPS信息比对,挑选出距离被破坏车辆最近的车辆,将其在服务器上的状态置为:记录车辆。这样当TCP连接由于意外断开后,便于服务器找到具体的记录车辆并恢复连接。
S301、服务器挑选记录车辆。由于被破坏现场可能持续的时间并不是很长,需要记录车辆尽可能快地前往现场记录信息,在本实施例中,通过比对服务器中车辆GPS信息,选取记录车辆的是距离被破坏车辆直线距离最近的车辆。
S302、如果记录车辆未与服务器建立TCP通信连接,建立记录车辆与服务器之间的通讯连接,如果记录车辆已与服务器建立了连接,则跳过此步骤。
S303、服务器向记录车辆发送记录请求报文,这是一个特殊的报文,载荷包含:
1)特殊的字段,用于标识此报文;
2)被破坏车辆的GPS信息,用于告知记录车辆被破坏现场的地理位置。
以下是这个记录请求报文格式的一个实施例:
如图3,将此TCP报文载荷的第一个字节置为0x7F这个固定字节。当记录车辆接收并解析完报文后,若发现报文第一个字节为0x7F,则就能确定这是一个记录请求报文。
步骤S4:被破坏车辆生成并发送动态地图给服务器,再由服务器发送给记录车辆。
被破坏车辆生成并发送动态地图给服务器。生成动态地图的目的是为了防止被破坏车辆某个角度被障碍物阻挡,从而记录车辆无法寻找到一个恰当的记录角度。
如图4,11为被破坏车辆,12为调度的记录车辆,若11右边的方块为障碍物,则在动态地图上将路径4->11去除(避免记录车辆通过此路径前往现场),调度记录车辆12按照9->7->6->3->11的路径前往现场记录。
发送的时间间隔不宜过短,其原因有如下两点:
1)发送太过于频繁,可能对网络带宽和稳定性的要求更高,而车辆与服务器是通过无线网络连接,稳定性相对于有线网络较差。
2)被破坏车辆生成与发送动态地图,以及记录车辆处理动态地图的数据都需要一定时间。过于频繁的发送会给车辆处理器带来更多的负担。
本实施例中,动态地图生成与发送的间隔为1秒,被破坏车辆每隔1秒都会执行此流程来告诉记录车辆动态地图信息(此时间间隔可以根据不同实施例适当变化)。如图5中的流程,以下是被破坏车辆每隔1秒生成与发送动态地图的具体实例:
S401、被破坏车辆通过激光雷达采集点云。无人作业车辆配备有激光雷达用于工作时避障与路径规划,当车辆被破坏后,激光雷达继续采集周围点云,目的是为了获取周围障碍物信息。
S402、剔除激光雷达采集点云无效信息。点云剔除步骤的目的是为了去除距离被破坏车辆距离较远的点云,即需要忽略距离被破坏车辆较远的任何物体,因为这些物体不会对被破坏车辆进行较大范围的遮挡。如:在本实施例采集到所有的点云中,剔除距离被破坏车辆超过2米以及高度超过2米以外的点的数据。
S403、对完成剔除步骤的点云进行聚类。使用K最邻近算法对剩余的点云进行聚类,K最邻近算法是一个经典的聚类算法,在此不多赘述。最终得到若干个点云类。此算法中的参数K可根据情况设定,如,本实施例中设定为5,即得到5个点云类。
S404、对相邻发送间隔采集得到的点云经过上述聚类得到的点云类进行匹配,得到匹配类对。
对上一秒与这一秒的所有类的点云分别计算其中心坐标Ki与Ki’。计算公式如下:
Kij为第i个点云类中第j个点的坐标;
n为第i个点云类中点的数量。
假设上一秒采集并计算得到的点云类中心坐标为K1’,K2’,K3’...Kn’,这一秒采集并计算得到的点云类中心坐标为K1,K2,K3...Km。相邻两秒内的点云类数量可能不同,例如某一秒中飘过树叶被激光雷达采集到,导致这一秒采集的点云类的数量增加,但因为此树叶不会距离其它障碍物很近,因此不会影响之后点云类匹配对的选取。选择所有满足|Ki-Ki’|<5cm的Ki与Ki’,称Ki与Ki’为点云类匹配对,下文简称为匹配类对。
匹配类对是一个点云类在时间维度上的匹配,表示匹配相邻两秒被破坏车辆周围同一物体。当某一个类对相互之间的中心坐标差值小于5cm,则可以标记为这个物体为静态物体,即视为速度在5cm每秒之内的物体为静态物体,即视其有可能为静态障碍物,可称这些匹配类对为:静态障碍物点云类。需要说明的是,上述最大差值设为5cm仅在本实施例中举例为5cm,该最大差值可以人为改变其数值。
S405、进行被破坏车辆周围障碍物方向判定,并通过障碍物的方向计算阻塞区间。由于激光雷达采集到的静态障碍物点云类是相对于车辆本身的方位坐标,需要转化为显示物理场景中的方位,才能判断障碍物是否造成了记录车辆可能到达现场后被遮挡,以便于记录车辆提前规划路径。如图6中的流程,以下是障碍物方向判定流程并设置阻塞区间的一个实施例:
S4051、被破坏车辆获取GPS信息车辆方向角α(相对于地球水平方向)。
S4052、被破坏车辆读取存储地图信息中当前位置道路方向角γ(相对于地球水平方向)。
S4053、被破坏车辆计算左阻塞角度区间与右阻塞角度区间,以下简称为左阻塞区间和右阻塞区间,当S404中获得的静态障碍物点云类位于这两个阻塞区间内,即视为存在静态障碍物。左阻塞区间和右阻塞区间分别表示车辆相对于道路的左方与右方的部分区域,如图7。若这些区域内存在障碍物阻挡(区间内存在障碍物点云类的中心方位角),则记录车辆就不能从对应区域的方向上前往被破坏现场:
这两个阻塞区间的角度单位均为弧度。区间的大小可以根据不同实施例的需要进行调整,如当道路宽度较小时,被破坏车辆更加容易被障碍物阻塞,可以增大阻塞区间大小,以便于检测到更大范围内的静态障碍物。
S4054、计算所有静态障碍物点云类中心方位角β1,β2,β3...βn,数量n等于障碍物的数量,这些方位角表示被破坏车辆附近障碍物相对于车辆中心的角度。车辆水平向右方向为0度。计算公式为:
yi为对应静态障碍物点云类纵坐标;
xi为对应静态障碍物点云类横坐标。
S4055、判断静态障碍物点云类中心方位角β1,β2,β3...βn是否位于左阻塞区间与右阻塞区间。若β1,β2,β3...βn中有一个位于左阻塞区间,就将左阻塞标志位置为1,表示记录车辆不能从被破坏现场左方靠近记录;若β1,β2,β3...βn中有一个位于右阻塞区间,就将右阻塞标志位置为1,表示记录车辆不能从被破坏现场右方靠近记录。
S406、将存储的静态地图邻接矩阵生成被破坏车辆的新节点得到动态地图邻接矩阵。
目前无人作业车辆的工作场景都是固定的,存储有相应的静态地图,静态地图的一个表示方式就是通过邻接矩阵的方式,邻接矩阵可以完整地表示节点与节点之间是否可到达的信息。如图4的场景与相对应图9中的静态地图邻接矩阵,在本实施例中矩阵对应节点元素为0表示这两个节点不可到达;元素为1表示这两个节点可到达。例如图4中节点6与节点9不可达,则图9矩阵中对应6行9列与9行6列的位置置为0;图4中节点7与节点9可达,则图9矩阵中对应7行9列与9行7列的位置置为1。针对无人作业车辆工作的不同地区,此静态地图邻接矩阵可以由人手动生成,并存储在车辆硬件中。
确定完阻塞区间后,即被破坏车辆知道了其周围可以前来记录的方向。由于这个记录的方向并不是固定的,所以称之为“动态”地图,即若每次发生破坏行为的场景不同,我们需要生成的周围地图环境也不同。被破坏车辆需要将存储的静态地图邻接矩阵生成新节点得到动态地图邻接矩阵。如图8中的流程,以下是本实施例中生成动态地图邻接矩阵的方法:
S4061、初始化静态地图邻接矩阵,本实施例中在静态地图邻接矩阵中新增对应被破坏车辆节点的行与列,得到初始的动态地图邻接矩阵,记为M,并置对应行与列所有元素为0,记被破坏车辆节点为D,如图4中为11号节点。需要说明的是,编号11号这个节点的编号不是固定的,只要与其它已经存在静态地图中的节点不同即可。
S4062、获取存储的静态地图中车辆当前位置道路始末节点编号,在车身左方的节点编号记为L,如图4中为3号节点;在车身右方的节点编号记为R,如图4中为4号节点。
S4063、根据步骤S4055中设置好的阻塞标志位修改邻接矩阵对应节点的可到达标识信息。若左阻塞标志位为0,则对邻接矩阵M[D][L]与M[L][D]做可到达标识,表示车身左方节点L与被破坏车辆D节点可达,本实施例中置为1;若右阻塞标志位为0,则对邻接矩阵M[D][R]与M[R][D]做可到达标识,表示车身右方节点L与被破坏车辆D节点可达,本实施例中置为1。如图4中被破坏车辆的右方被阻挡,左阻塞标志位为0,图10中邻接矩阵M[3][11]与M[11][3]置为1;右阻塞标志位为1,图10中邻接矩阵M[4][11]与M[11][4]保持为0。
S407、被破坏车辆发送动态地图的邻接矩阵以及被破坏车辆自己所在的节点给服务器,服务器再将这些信息发送给记录车辆。
步骤S5:记录车辆接收并整合动态地图邻接矩阵,记录车辆进行最佳路径选取。由于被破坏车辆发送的动态地图中没有记录车辆的位置信息,记录车辆需要接收并整合动态地图的邻接矩阵,添加上自己所在节点的信息。如图11中流程所示,以下S501-S503是本实施例中接收并整合动态地图邻接矩阵的流程:
S501、进行动态地图邻接矩阵的初始化,得到初始化的动态地图邻接矩阵。本实施例中是在接收的动态地图邻接矩阵(记为M1)中新增记录车辆节点的行与列,并置这些行与列对应所有元素为0,设记录车辆节点为S,如图4中为12号节点。需要说明的是,这个节点的编号不是固定的,只要与其它已经存在动态地图中的节点不同即可。
S502、记录车辆获取存储的静态地图中记录车辆当前道路位置始末位置节点编号,在车身左方的节点编号记为L1,如图4中为9号节点;在车身右方的节点编号记为R1,如图4中为10号节点。
S503、将初始化的邻接矩阵中元素M1[S][L1]、M1[L1][S]、M1[S][R1]、M1[R1][S]做可到达性标识,表示节点S与节点L1、R1均可到达,在本实施例中是将邻接矩阵中元素M1[S][L1]、M1[L1][S]、M1[S][R1]、M1[R1][S]置为1。如图12中邻接矩阵M1[12][9]、M1[9][12]、M1[12][10]、M1[10][12]置为1。
以下S504-S505是本实施例前往被破坏现场的流程:
S504、记录车辆进行最佳路径选取,本实施例中是采用迪杰斯特拉算法选取最短路径,迪杰斯特拉算法是一个经典的最短路径选取算法,在此不多赘述。
如图4,本实施例在采用动态地图后,选取的路径为12->9->7->6->3->11,即记录车辆避开了4->11这一部分中被破坏车辆受到阻挡的路径。
S505、通过步骤S504中规划的最短路径,记录车辆进行自动避障驾驶,靠近破坏现场。
步骤S6:如图13的流程图所示,记录车辆选取目标车-人对。当记录车辆与被破坏车辆的距离小于20米后,会从步骤S505(靠近破坏现场流程)切换到选取目标车-人对(确定被破坏的车辆与破坏人在图像中的位置)的步骤。
此步骤的目的为:若被破坏区域内有三辆车辆,一辆正在受到破坏。按照之前的调度,其它两辆车辆有一辆会相应作为记录车辆。则记录车辆会拍摄到两辆车辆(一辆受破坏车辆与一辆无关车辆)。则需正确选取出被破坏的车-破坏人组合。解决方案为:选取距离车最近的人作为目标。例如图14中d1<d2(近似计算得到的现实中的距离,非像素距离),则选取d1对应的车-人对。以下为选取目标车-人对的一个实施例:
S601、调用记录车辆预先保存的深度学习模型,识别标注出图像中的所有车辆与人体矩形框。
S602、在图像中选取任意一个车辆矩形框与人体矩形框,计算其模拟距离Li(表示近似的车辆与人在现实中的距离)
Ccar为对应车像素块中心横坐标(像素坐标)
Cpeople为对应人像素块中心横坐标(像素坐标)
Wcar为对应车像素块宽度
Wpeople为对应人像素块宽度
S603、遍历步骤S601中所有识别的车辆与人体矩形框,计算L1,L2,L3...Ln,从中选取对应的车辆与人体作为目标车-人对。本实施例选取L1,L2,L3...Ln中最小值Lmin对应的车辆与人体作为目标车-人对。
步骤S7:如图15中的流程图所示,记录车辆进行拍摄角度与距离校正。当选取完目标车-人对后,调整记录车辆的位置与角度足以使记录下的视频信息足够清晰,可以辨别出破坏者的特征。需要通过受破坏车辆出现在记录车辆采集图像的位置,然后调度记录车辆逐步靠近受破坏车辆,使得受破坏车辆的像素块尽可能大并靠近图像中央。如图15中的流程,以下为拍摄角度与距离校正的一个实施例:
S701、计算记录车辆的横向偏移校正角度φ(表示目标车-人对在采集的图像中偏离中心的角度),计算公式如下:
d为目标图像块中心与图像中心横坐标像素差,可由采集图像计算得到;
w为摄像头采集图像横向总像素,可由摄像头硬件参数得到;
θ为摄像头横向视角度,可由摄像头硬件参数得到。
之所以只需要进行横向偏移角度校正,而不用纵向偏移角度校正的原因是:对于正常高度的车辆与人,被破坏车辆拍摄的图像内它们的像素块纵坐标应该是处于图像中间的,已经没有必要再进行纵向的调整。
S702、控制记录车辆转动偏移校正角度φ:若步骤S603中选取的目标车-人对矩形框像素块位于图像中心的左侧,则车辆向左旋转角度φ;若步骤S603中选取的目标车-人对矩形框像素块位于图像中心的右侧,则车辆向右旋转角度φ。完成此步骤后,目标车-人对的像素块位置应该位于较靠近图像中心的位置。
S703、计算车-人对图像矩形框所占像素块大小,若小于设定阈值,则车辆向前行驶适当距离。向前移动适当距离的目的是为了使得拍摄的破坏现场在图像中占的像素位置尽可能大,在本实施例中向前移动的距离为10厘米。重复执行此步骤,直到车-人对图像矩形框所占像素大小大于设定阈值。需要说明的是,此阈值不是固定的,需要根据具体无人作业车辆的大小而改变,如,在本实施例中设定的像素块阈值大小为480像素*270像素。
步骤S8:完成拍摄角度与距离校正后,记录车辆开始进行破坏现场记录。
本发明实施例的记录方式是采用视频记录的方法,视频格式如下:每帧大小为960像素*540像素,每秒25帧;视频帧的存储格式是RGB24,RGB24是一种场景的视频帧存储方式,代表了红色(R)、绿色(G)、蓝色(B)三个颜色的通道存储各占一个字节。
由于存储视频帧需要占用较多的车辆硬盘存储空间,如图16,本实施例中采取的是双缓存策略:即车辆中50MB空间作为当前记录数据的空间,用于存储当前拍摄现场的视频数据缓存;另外50MB空间作为发送数据的空间,当缓存空间占用满之后即会转为发送数据空间,发送数据空间中的数据会由步骤S302中建立的TCP连接发送给服务器,当发送完成后,此空间会转为记录数据空间。若当前没有记录数据空间可用,则会暂停视频数据记录,直到发送数据空间转为记录数据空间。
缓存空间在本实施例中为50MB,在不同实施例中针对不同的记录视频格式和网络通信速度可以设置不同的缓存空间。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种无人作业车辆协同记录被破坏现场的方法,其特征在于包括:
(1)被破坏车辆检测破坏行为,并向服务器发送破坏记录报文请求;
(2)服务器接收到被破坏车辆发送的请求后,挑选记录车辆,并向记录车辆发送请求记录报文;
(3)被破坏车辆生成并发送动态地图给服务器,再由服务器发送给记录车辆;
(4)记录车辆接收并整合动态地图邻接矩阵后,通过路径选取前往被破坏现场;
(5)记录车辆选取目标车-人对,记录车辆开始进行破坏现场记录。
2.根据权利要求1所述的无人作业车辆协同记录被破坏现场的方法,其特征在于所述破坏记录报文载荷包含:用于标识此报文的特殊字段、被破坏车辆的身份信息、被破坏车辆的GPS。
3.根据权利要求1所述的无人作业车辆协同记录被破坏现场的方法,其特征在于所述被破坏车辆生成与发送动态地图包括如下步骤:
(1)被破坏车辆通过激光雷达采集点云;
(2)剔除激光雷达采集点云无效信息;
(3)对完成剔除步骤的点云进行聚类;
(4)对相邻发送间隔采集得到的点云经过上述聚类得到的点云类进行匹配,得到匹配类对;
(5)进行被破坏车辆周围障碍物方向判定,并通过障碍物的方向计算阻塞区间;
(6)将存储的静态地图邻接矩阵生成被破坏车辆的新节点得到动态地图邻接矩阵;
(7)被破坏车辆发送动态地图的邻接矩阵以及被破坏车辆自己所在的节点给服务器,服务器再将这些信息发送给记录车辆。
4.根据权利要求3所述的无人作业车辆协同记录被破坏现场的方法,其特征在于所述障碍物方向判定步骤如下:
(1)被破坏车辆获取GPS信息车辆方向角;
(2)被破坏车辆读取存储地图信息中当前位置道路方向角;
(3)被破坏车辆计算左阻塞角度区间与右阻塞角度区间;
(4)计算所有静态障碍物点云类中心方位角;
(5)判断静态障碍物点云类中心方位角是否位于左阻塞区间与右阻塞区间,设置阻塞标志位。
5.根据权利要求4所述的无人作业车辆协同记录被破坏现场的方法,其特征在于所述生成动态地图邻接矩阵的步骤包括如下:
(1)在静态地图邻接矩阵中新增对应被破坏车辆节点的行与列,并初始化对应静态地图的邻接矩阵的行与列,得到初始的动态地图邻接矩阵;
(2)获取存储的静态地图中车辆当前位置道路始末节点编号,对车身的左右方节点编号进行标记;
(3)根据设置好的阻塞标志位修改初始的动态地图邻接矩阵,得到最终的动态地图邻接矩阵。
6.根据权利要求1-5任一项所述的无人作业车辆协同记录被破坏现场的方法,其特征在于所述接收并整合动态地图邻接矩阵的步骤包括如下:
(1)在接收的动态地图邻接矩阵中新增记录车辆节点的行与列,并初始化对应动态地图的邻接矩阵的行与列,得到初始的动态地图邻接矩阵;
(2)记录车辆获取存储的静态地图中记录车辆当前道路位置始末位置节点编号,对车身的左右方节点编号进行标记;
(3)将初始的动态地图邻接矩阵中对应车身节点的行与列编号元素做可到达性标注,完成动态地图邻接矩阵的整合。
7.根据权利要求1所述的无人作业车辆协同记录被破坏现场的方法,其特征在于所述记录车辆选取目标车-人对包括如下步骤:
(1)调用记录车辆预先保存的深度学习模型,识别标注出图像中的所有车辆与人体矩形框;
(2)在图像中选取任意一个车辆矩形框与人体矩形框,计算其模拟距离;
(3)遍历所有识别出的车辆与人体矩形框。
8.根据权利要求1-5和7任一项所述的无人作业车辆协同记录被破坏现场的方法,其特征在于:当选取完目标车-人对后,记录车辆进行拍摄角度与距离校正。
9.根据权利要求8所述的无人作业车辆协同记录被破坏现场的方法,其特征在于记录车辆进行拍摄角度与距离校正包括如下步骤:
(1)计算记录车辆的横向偏移校正角度;
(2)控制记录车辆转动偏移校正角度;
(3)计算车-人对图像矩形框所占像素块大小,若小于设定阈值,则车辆向前行驶适当距离,直到车-人对图像矩形框所占像素大小大于设定阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210183629.9A CN114268728B (zh) | 2022-02-28 | 2022-02-28 | 一种无人作业车辆协同记录被破坏现场的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210183629.9A CN114268728B (zh) | 2022-02-28 | 2022-02-28 | 一种无人作业车辆协同记录被破坏现场的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114268728A true CN114268728A (zh) | 2022-04-01 |
CN114268728B CN114268728B (zh) | 2022-07-08 |
Family
ID=80833668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210183629.9A Active CN114268728B (zh) | 2022-02-28 | 2022-02-28 | 一种无人作业车辆协同记录被破坏现场的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114268728B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050185052A1 (en) * | 2004-02-25 | 2005-08-25 | Raisinghani Vijay S. | Automatic collision triggered video system |
CN1937764A (zh) * | 2005-09-20 | 2007-03-28 | 铃木旭 | 汽车行驶记录器 |
JP2007199840A (ja) * | 2006-01-24 | 2007-08-09 | Denso Corp | 車両用盗難防止システム、車両用盗難防止装置、車両用盗難防止プログラム及び管理装置 |
WO2014199040A1 (fr) * | 2013-06-12 | 2014-12-18 | Renault S.A.S. | Procede et systeme d'identification d'un degat cause a un vehicule |
US20160096506A1 (en) * | 2014-10-01 | 2016-04-07 | Xerox Corporation | Method and system for vandalism and/or loitering detection using video |
JP2016134816A (ja) * | 2015-01-21 | 2016-07-25 | 株式会社日立製作所 | 画像調整方法、サーバ及び動画撮影システム |
US9471059B1 (en) * | 2015-02-17 | 2016-10-18 | Amazon Technologies, Inc. | Unmanned aerial vehicle assistant |
US20180215344A1 (en) * | 2015-02-10 | 2018-08-02 | Mobile Intelligent Alerts, Llc | Information processing system, method, apparatus, computer readable medium, and computer readable program for information exchange in vehicles |
US20180247505A1 (en) * | 2017-02-27 | 2018-08-30 | Panasonic Intellectual Property Management Co., Ltd. | Surveillance camera system and surveillance method |
CN109143215A (zh) * | 2018-08-28 | 2019-01-04 | 重庆邮电大学 | 一种基于双目视觉与v2x通信的协同预警设备与方法 |
WO2019125429A1 (en) * | 2017-12-20 | 2019-06-27 | Intel Corporation | Autonomous unmanned vehicles for responding to situations |
EP3645364A1 (en) * | 2017-07-11 | 2020-05-06 | Waymo LLC | Methods and systems for providing remote assistance to a vehicle |
WO2020113619A1 (en) * | 2018-12-06 | 2020-06-11 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for identifying damaged vehicle in online to offline service |
JP2020166691A (ja) * | 2019-03-29 | 2020-10-08 | 本田技研工業株式会社 | 撮影システム、サーバ、制御方法およびプログラム |
US20210203890A1 (en) * | 2019-12-26 | 2021-07-01 | Sl Mirrortech Corporation | Apparatus for monitoring surrounding of vehicle |
-
2022
- 2022-02-28 CN CN202210183629.9A patent/CN114268728B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050185052A1 (en) * | 2004-02-25 | 2005-08-25 | Raisinghani Vijay S. | Automatic collision triggered video system |
CN1937764A (zh) * | 2005-09-20 | 2007-03-28 | 铃木旭 | 汽车行驶记录器 |
JP2007199840A (ja) * | 2006-01-24 | 2007-08-09 | Denso Corp | 車両用盗難防止システム、車両用盗難防止装置、車両用盗難防止プログラム及び管理装置 |
WO2014199040A1 (fr) * | 2013-06-12 | 2014-12-18 | Renault S.A.S. | Procede et systeme d'identification d'un degat cause a un vehicule |
US20160096506A1 (en) * | 2014-10-01 | 2016-04-07 | Xerox Corporation | Method and system for vandalism and/or loitering detection using video |
JP2016134816A (ja) * | 2015-01-21 | 2016-07-25 | 株式会社日立製作所 | 画像調整方法、サーバ及び動画撮影システム |
US20180215344A1 (en) * | 2015-02-10 | 2018-08-02 | Mobile Intelligent Alerts, Llc | Information processing system, method, apparatus, computer readable medium, and computer readable program for information exchange in vehicles |
US9471059B1 (en) * | 2015-02-17 | 2016-10-18 | Amazon Technologies, Inc. | Unmanned aerial vehicle assistant |
US20180247505A1 (en) * | 2017-02-27 | 2018-08-30 | Panasonic Intellectual Property Management Co., Ltd. | Surveillance camera system and surveillance method |
EP3645364A1 (en) * | 2017-07-11 | 2020-05-06 | Waymo LLC | Methods and systems for providing remote assistance to a vehicle |
WO2019125429A1 (en) * | 2017-12-20 | 2019-06-27 | Intel Corporation | Autonomous unmanned vehicles for responding to situations |
CN109143215A (zh) * | 2018-08-28 | 2019-01-04 | 重庆邮电大学 | 一种基于双目视觉与v2x通信的协同预警设备与方法 |
WO2020113619A1 (en) * | 2018-12-06 | 2020-06-11 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for identifying damaged vehicle in online to offline service |
JP2020166691A (ja) * | 2019-03-29 | 2020-10-08 | 本田技研工業株式会社 | 撮影システム、サーバ、制御方法およびプログラム |
US20210203890A1 (en) * | 2019-12-26 | 2021-07-01 | Sl Mirrortech Corporation | Apparatus for monitoring surrounding of vehicle |
Non-Patent Citations (2)
Title |
---|
WAHYONO等: "Visual perception of traffic sign for autonomous vehicle using k-nearest cluster neighbor classifier", 《2014 11TH INTERNATIONAL CONFERENCE ON UBIQUITOUS ROBOTS AND AMBIENT INTELLIGENCE (URAI)》 * |
张达峰等: "基于模糊逻辑的汽车障碍物探测系统设计", 《电子技术应用》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114268728B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230059510A1 (en) | Systems and methods for intelligently calibrating infrastructure devices using onboard sensors of an autonomous agent | |
US7486202B2 (en) | Vehicle communication device | |
CN107871399B (zh) | 车辆自动驾驶系统及方法 | |
KR102566557B1 (ko) | 구급차를 활용한 노면 정보 제공 장치 | |
KR101647950B1 (ko) | 드론을 이용한 안전 경로 안내장치 및 그 제어 방법 | |
EP1693816A2 (en) | Communication device for a movable body | |
DE112019004065T5 (de) | Informationsverarbeitungsvorrichtung, endgerät,informationsverarbeitungsverfahren, und informationsverarbeitungsprogramm | |
US20220201000A1 (en) | Security gateway | |
CN111522030B (zh) | 一种基于无人机组与北斗定位的山区失踪人员搜救系统 | |
KR20220094242A (ko) | 드론을 이용한 경사지 재난 감시 시스템 및 그 운용방법 | |
CN114268728B (zh) | 一种无人作业车辆协同记录被破坏现场的方法 | |
US20210229804A1 (en) | Traffic information processing equipment, system and method | |
DE102021133352A1 (de) | Authentifizierte punktwolkendaten | |
KR101556581B1 (ko) | 시야 확장용 실시간 무선 영상 공유 시스템 | |
US20230074477A1 (en) | System and method for object monitoring, localization, and controlling | |
KR102529609B1 (ko) | 퍼스널 모빌리티 주행 상태 제공 시스템 | |
CN115936952A (zh) | 一种智慧公园人员拥堵疏通管理系统及方法 | |
KR102527022B1 (ko) | 차량 상의 전자 디바이스의 전력 관리 | |
CN112150807B (zh) | 车辆预警方法和装置、存储介质及电子设备 | |
CN112261102A (zh) | 一种景区自助游览系统及方法 | |
JP2016119628A (ja) | 画像処理装置 | |
US20230230423A1 (en) | Physical and virtual identity association | |
CN110082128B (zh) | 一种面向自然驾驶数据的危险片段采集系统及其方法 | |
KR20210006800A (ko) | 차량 시스템 및 상기 차량 시스템을 이용하여 고정밀 지도를 위한 센싱 데이터 업로드 방법 | |
Christian et al. | Data Fusion Driven Lane-level Precision Data Transmission for V2X Road Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |