CN114037926A - 一种寻车路线的规划方法、装置、电子设备及存储介质 - Google Patents

一种寻车路线的规划方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN114037926A
CN114037926A CN202111180672.1A CN202111180672A CN114037926A CN 114037926 A CN114037926 A CN 114037926A CN 202111180672 A CN202111180672 A CN 202111180672A CN 114037926 A CN114037926 A CN 114037926A
Authority
CN
China
Prior art keywords
parking
detected
vehicle
target
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111180672.1A
Other languages
English (en)
Inventor
苏昭行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202111180672.1A priority Critical patent/CN114037926A/zh
Publication of CN114037926A publication Critical patent/CN114037926A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请实施例提供了一种寻车路线的规划方法、装置、电子设备及存储介质,基于对停车事件的实时记录,分析出目标对象的目标停车事件,从而将目标对象的特征与发生目标停车事件的目标区域关联。与现有技术相比,本申请实施例提供的寻车线路的规划方法,只需根据记录的停车事件,就能判断出准确的目标区域,而不受环境因素影响,即便是拍摄环境的光线较暗,或者摄像设备的拍摄角度不佳,也能根据以上方法,判断出准确的目标区域,从而提高了寻车路线的规划准确性。

Description

一种寻车路线的规划方法、装置、电子设备及存储介质
技术领域
本申请涉及智能分析技术领域,尤其涉及一种寻车路线的规划方法、装置、电子设备及存储介质。
背景技术
在大型室内停车场中,车位排列规则,建筑构造等通常具有重复性,并且,停车场中通常缺少明显的指引信息,这样,目标对象在停车位上停放目标车辆并离开后,当目标对象需要寻找目标车辆时,上述停车场的设计方式会给目标对象带来极大不便;因此,在大型室内停车场中,服务系统常常为目标对象提供对应的寻车指引服务,来辅助目标对象找到目标车辆。
相关技术下,在提供寻车指引服务前,服务系统需要通过停车场中部署的摄像设备(如,摄像头、相机等),在检测到目标对象下车时,识别目标对象的脸部信息及目标车辆的车牌信息,并确定目标车辆在大型室内停车场对应的电子地图中的坐标信息;这样,当服务系统接收到目标对象提供的寻车指令时,就可以根据目标对象的脸部信息+目标车辆的车牌信息和坐标信息,以目标对象的当前位置为起点,为目标对象规划相应的寻车线路,即提供寻车指引服务。
然而,采用上述方式提供寻车指引服务,对摄像设备的拍摄角度及图像清晰度等要求较高,受环境因素影响较大,当环境条件不佳时,会影响寻车线路的规划准确性。
例如,在实际场景中,当拍摄环境的光线较暗时,会由于拍摄画面较为模糊,导致从拍摄画面中识别到的目标对象的脸部信息及目标车辆的车牌信息,存在部分特征数据缺失的现象,从而在服务系统规划相应的寻车线路时,影响寻车线路的规划准确性。
又例如,在实际应用中,当摄像设备的拍摄角度不佳时,会由于拍摄画面中未出现完整的目标对象或目标车辆的图像,导致从拍摄画面中识别到的,目标对象的脸部信息及目标车辆的车牌信息,存在部分特征数据缺失的现象,从而影响寻车线路的规划准确性。
发明内容
本发明实施例提供一种寻车路线的规划方法、装置、电子设备及存储介质,用于提高寻车路线的规划准确性。
第一方面,本申请实施例提供一种寻车路线规划方法,包括:
获取目标时刻采集的待检测图像,以及获取从目标时刻起始向前的第一时间范围内采集的至少一个待检测视频帧,并基于获得的至少一个待检测视频帧,获得待检测图像包含的停车区域集合中,各个停车区域各自在第一时间范围内的停车状态信息,其中,待检测图像包含停车场中的目标对象及相应的周边环境。
对待检测图像进行图像处理,获得目标对象的面部特征信息和目标对象在待检测图像中的位置信息。
基于获得的目标对象的位置信息及停车状态信息,在停车区域集合中,确定目标对象对应的目标停车区域,并获取目标停车区域的目标区域标识。
将获得的面部特征信息和目标区域标识发往服务器,以使服务器在接收到目标对象发送的寻车指令时,基于获得的面部特征信息及目标区域标识,以目标对象的当前位置为起点,为目标对象规划相应的寻车路线。
第二方面,本申请实施例还提供了一种寻车路线的规划装置,包括:
第一获取模块,用于获取目标时刻采集的待检测图像,以及获取从目标时刻起始向前的第一时间范围内采集的至少一个待检测视频帧,并基于获得的至少一个待检测视频帧,获得所述待检测图像包含的停车区域集合中,各个停车区域各自在第一时间范围内的停车状态信息,其中,待检测图像包含停车场中的目标对象及相应的周边环境。
第二获取模块,用于对待检测图像进行图像处理,获得目标对象的面部特征信息和目标对象在待检测图像中的位置信息。
确定模块,用于基于位置信息及停车状态信息,在停车区域集合中,确定目标对象对应的目标停车区域,并获取目标停车区域的目标区域标识。
通信模块,用于将面部特征信息和目标区域标识发往服务器,以使服务器在接收到目标对象发送的寻车指令时,基于面部特征信息及目标区域标识,以目标对象的当前位置为起点,为目标对象规划相应的寻车路线。
一种可选的实施例中,在基于获得的至少一个待检测视频帧,获得待检测图像包含的停车区域集合中,各个停车区域各自在第一时间范围内的停车状态信息时,第一获取模块具体用于:
针对获得的至少一个待检测视频帧,分别执行以下操作:基于一个待检测视频帧包含的各个车位的车辆停放情况,确定一个待检测视频帧对应的占用车位数量信息及空闲车位数量信息。
基于获得的至少一个待检测视频帧各自对应的占用车位数量信息及空闲车位数量信息,分别确定各个车位各自在第一时间范围内,距离目标时刻最近的局部停车事件及相应的局部停车时间。
分别确定停车区域集合中,各个停车区域各自包含的车位数目,并基于各个车位各自对应的局部停车事件及相应的局部停车时间,分别确定各个停车区域各自在第一时间范围内的候选停车事件及相应的候选停车时间。
基于获得的各个候选停车事件及相应的候选停车时间,分别生成各个停车区域各自对应的停车状态信息。
一种可选的实施例中,在基于一个待检测视频帧包含的各个车位的车辆停放情况,确定一个待检测视频帧对应的占用车位数量信息及空闲车位数量信息时,第一获取模块具体用于:
基于预设的车辆检测算法,分别获取一个待检测视频帧中,各个车辆的车辆坐标信息,并基于预设的偏移模型,对各个车辆的车辆坐标信息进行偏移处理,获得各个车辆各自对应的车辆偏移坐标信息。
获取一个待检测视频帧中,各个车位各自的车位区域坐标信息。
根据各个车辆各自对应的车辆偏移坐标信息,及各个车位各自的车位区域坐标信息,确定一个待检测视频帧对应的占用车位数量信息及空闲车位数量信息。
一种可选的实施例中,在基于预设的车辆检测算法,分别获取一个待检测视频帧中,各个车辆的车辆坐标信息时,第一获取模块具体用于:
按照预设的分割规则,对一个待检测视频帧进行分割处理,获得一个待检测视频帧对应的至少一个视频帧子图。
针对至少一个视频帧子图,分别执行以下操作:确定一个待检测子图中包含的车辆数目,并基于预设的车辆检测算法,分别获得一个视频帧子图中,各个车辆各自的局部车辆坐标信息。
基于至少一个视频帧子图中,各个车辆各自的局部车辆坐标信息,采用预设的分割还原算法,获得一个待检测视频帧中,各个车辆的车辆坐标信息。
一种可选的实施例中,在基于各个车位各自对应的局部停车事件及对应的局部停车时间,分别确定各个停车区域各自在第一时间范围内的候选停车事件及对应的候选停车时间时,第一获取模块具体用于:
针对各个停车区域,分别执行以下操作:
基于一个停车区域包含的各个车位各自对应的局部停车事件及相应的局部停车时间,将距离目标时刻最近的局部停车时间作为一个停车区域对应的候选停车时间,以及将候选停车时间对应的局部停车事件作为一个停车区域对应的候选停车事件。
一种可选的实施例中,在对待检测图像进行图像处理,获得目标对象的面部特征信息和目标对象在待检测图像中的位置信息时,第二获取模块具体用于:
基于预设的脸部检测算法,对待检测图像进行图像处理,获得目标对象的面部特征信息。
基于预设的人像检测算法,对待检测图像进行图像处理,获得目标对象在待检测图像中的位置信息。
一种可选的实施例中,在基于位置信息及停车状态信息,在停车区域集合中,确定目标对象对应的目标停车区域时,确定模块具体用于:
基于停车状态信息中,至少一个候选停车区域,各自在第一时间范围内的候选停车事件及相应的候选停车时间,选取一个距离目标时刻最近的候选停车事件作为最新停车事件,以及将最新停车事件对应的候选停车时间作为最新停车时间。
判断最新停车时间是否在预设的第二时间范围内,若是,则将最新停车事件对应的候选停车区域作为目标停车区域;否则,将停车区域集合中各个停车区域共同组成的耦合区域,作为目标停车区域。
第三方面,本申请实施例还提供了一种电子设备,包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的计算机程序,当所述计算机程序被所述处理器执行时,使得所述处理器实现上述第一方面中的任一种寻车路线的规划方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时,实现第一方面的寻车路线的规划方法。
附图说明
图1为本申请实施例提供的寻车线路规划系统的架构图;
图2为本申请实施例提供的摄像设备采集图像的示意图;
图3为本申请实施例提供的寻车线路的规划方法的流程示意图;
图4为本申请实施例提供的各个待检测视频帧的示例图;
图5为本申请实施例提供的获得占用车位数量信息的流程示意图;
图6为本申请实施例提供的待检测视频x的示例图;
图7为本申请实施例提供的确定占用车位数量的流程示意图;
图8a,图8b为本申请实施例提供的车辆坐标信息偏移的示例图;
图9为本申请实施例提供的获取坐标信息的流程示意图;
图10为本申请实施例提供的获取视频帧子图的流程示意图;
图11为本申请实施例提供的获取视频帧子图中车辆坐标信息的示例图;
图12为本申请实施例提供的图像处理的流程示意图;
图13为本申请实施例提供的获取目标停车区域的流程示意图;
图14为本申请实施例提供的耦合后的目标停车区域示例图;
图15为本申请实施例提供的寻车路线的示例图;
图16为本申请实施例提供的一种寻车路线规划装置示意图;
图17为本申请实施例提供的一种电子设备示意图。
具体实施方式
为提高寻车路线的规划准确性,本申请实施例中,基于对停车事件的实时记录,分析出目标对象的目标停车事件,从而将目标对象的特征与发生目标停车事件的目标区域关联。与现有技术相比,本申请实施例提供的寻车线路的规划方法,只需根据记录的停车事件,就能判断出准确的目标区域,而不受环境因素影响,即便是拍摄环境的光线较暗,或者摄像设备的拍摄角度不佳,也能根据以上方法,判断出准确的目标区域,从而提高了寻车路线的规划准确性。
下面结合附图对本申请优选的实施方式作出进一步详细说明。
参阅图1所示,本申请实施例中,在室内停车场内部,安装有大量摄像设备,如,相机,摄像头等。可选的,摄像设备可以选用鱼眼镜头,用于达到最大的摄影视角,通过鱼眼镜头,摄像设备可以实时采集室内停车场内部的最新图像,如:
当目标对象从入口步行进入停车场时,可以采集到目标对象进入停车场时刻的最新图像;
当目标对象下车时,可以采集到目标对象从目标车辆中离开的最新图像。
而通过摄像设备获得的各个图像,均可以作为待检测图像使用。
参阅图2所示,以摄像设备采集到的任意一张图像为例,在一张图像中,包括了停车场内的各个停车区域,每个停车区域内包含有N个车位,N为预设自然数。
本申请实施例中,为了便于实施,对停车场内的环境空间进行了规划,具体的,将3个车位作为一个停车区域,这是因为选取了鱼眼镜头的摄像设备最多可拍摄包含12车位的全景图像,而通常将选取了鱼眼镜头的摄像设备拍摄的全景图像划分为4个停车区域。
基于上述停车场环境规划方式,参阅图3所示,本申请实施例中,管理设备进行寻车路线规划的具体方式如下:
步骤31:获取目标时刻采集的待检测图像,以及获取从目标时刻起始向前的第一时间范围内采集的至少一个待检测视频帧,并基于获得的至少一个待检测视频帧,获得待检测图像包含的停车区域集合中,各个停车区域各自在第一时间范围内的停车状态信息,其中,待检测图像包含停车场中的目标对象及相应的周边环境。
实际场景中,目标对象往往驾驶着目标车辆进入室内停车场,在停放好目标车辆后,从目标车辆下车,并离开目标车辆的所在区域。
由于无法检测到处于目标车辆上的目标对象,因此获取到的包含目标对象及相应周边环境的待检测图像,通常对应着目标对象从目标车辆下车后的时间范围,即,此时目标对象对应的目标停车事件已经结束;那么,为了能够准确推算出目标对象发生目标停车事件的时间,则需要以获取到待检测图像的目标时刻为基准,向前设定一个第一时间范围,则在该第一时间范围内,认定在待检测图像包含的停车区域集合内,目标对象可能发生了目标停车事件。
可选的,可以根据停车场中的车流量,设定相应的第一时间范围。
例如:在一段时间内,从停车场入口进入或从停车场出口离开的车辆数目明显增多,则认定在这段时间内,停车场中的车流量增大,那么,这种情况下,目标对象可能较平时更快离开目标车辆,则可根据这一情况,设定较短的第一时间范围,如,目标时刻向前3分钟。
又例如:在一段时间内,从停车场入口进入或从停车场出口离开的车辆数目明显减少,则认定在这段时间内,停车场中的车流量减小,那么,这种情况下,目标对象可能在停车一段时间后才离开目标车辆,则可根据这一情况,设定较长的第一时间范围,如,目标时刻向前10分钟。
在设定第一时间范围后,进一步地,在执行步骤30的过程中,还可以根据待检测图像及第一时间范围,获得至少一个待检测视频帧。
具体的,可以通过以下方式,获得包含待检测图像的至少一个待检测视频帧:获取采集到待检测图像的摄像设备在第一时间范围内采集到的所有全景图像,将上述全景图像按时间顺序依次排列,并分别进行编码处理,获得一串按时间顺序依次排列的全景图像流,再按照预设的抽帧频率,依次从上述全景图像流中,抽取出对应的至少一个编码后的全景图像,作为待检测视频帧。
例如,假设将第一时间范围设置为10分钟,则获取目标时刻过去的10分钟内,摄像设备采集到所有全景图像,并对所有图像进行编码,基于设置的抽帧频率F,抽取出包含待检测图像a的500个待检测视频帧。
参阅图4所示,以上述500个待检测视频帧中的3个待检测视频帧为例,在待检测视频帧1、待检测视频帧2和待检测视频帧3中,均包含了停车区域集合(即停车区域A,B,C,D),而在待检测视频帧3中,出现了目标对象,表明发生了目标停车事件。
可见,通过上述500个待检测视频帧,可以获得各个停车区域各自在过去10分钟内的停车状态信息,而每个停车状态信息表示相应的停车区域中,各个车位的占用情况,如,获得过去的10分钟内,停车区域A的停车状态信息为:过去10分钟内,车位1,车位3均一直被占用。
参阅图5所示,在采用上述方式获得第一时间范围内的至少一个待检测视频帧后,进一步地,在执行步骤30的过程中,在基于获得的至少一个待检测视频帧,获得检测图像包含的停车区域集合中,各个停车区域各自在第一时间范围内的停车状态信息时,还可以执行但不限于以下操作:
步骤311:针对获得的至少一个待检测视频帧,分别执行以下操作:基于一个待检测视频帧包含的各个车位的车辆停放情况,确定该待检测视频帧对应的占用车位数量信息及空闲车位数量信息。
为了便于描述,本申请实施例中,以获得的至少一个待检测视频帧中的任意一个待检测视频帧(以下称为待检测视频帧x)为例,进行相关说明,其他待检测视频帧的处理过程均采用相同方式,将不再赘述。
具体的,在执行步骤311时,可以基于待检测视频帧中呈现的各个车位各自的车辆停放情况,来确定哪些车位被占用,哪些车位空闲,并获得对应的占用车位数量信息及空闲车位数量信息。
例如,参阅图6所示,在待检测视频帧x中,车位1,车位3,车位4,车位6,车位8,车位11均被占用,车位2,车位5,车位7,车位9,车位10,车位12仍处于空闲,则管理设备统计各个车位各自的车辆停放情况,确定在待检测视频帧x中,占用车位数量信息为6,空闲车位数量信息为6。
采用上述方式,可以获得各个待检测视频帧各自对应的车辆停放情况,假设共有5个待检测视频帧,则其各自对应车辆停放情况如表1所示:
表1
Figure BDA0003297021380000091
Figure BDA0003297021380000101
进一步地,在一个可选的实施例中,仍以待检测视频帧x为例,参阅图7所示,在执行步骤311时,管理设备还可以采用以下方式:
步骤3111:基于预设的车辆检测算法,分别获取待检测视频帧x中,各个车辆的车辆坐标信息,并基于预设的偏移模型,对获得的各个车辆的车辆坐标信息进行偏移处理,获得各个车辆各自对应的车辆偏移坐标信息。
具体实施中,由于部分车辆的车型较大,车身超出规定的停车范围,因此,可以采用预设的车辆检测算法,来获取每个车辆的车辆坐标信息(如,车辆的中心点坐标),并通过判断获得的车辆坐标信息是否处在预设的停车范围内,来判定每个车辆的停车情况,以避免因车身超出停车范围而造成的误检问题。
此外,由于距离摄像设备越近的车辆,在待检测视频帧x中成像越大,那么,采用车辆检测算法获得的车辆对应的车辆坐标信息,便容易落入相邻车位的停车范围内,针对上述问题,本申请实施例中,管理设备可以对获得的坐标信息作进一步的偏移处理,再通过获得的车辆偏移坐标信息,来判断每个车辆的停车情况。
具体的,管理设备将获得的车辆坐标信息进行偏移处理,存在以下情况:
情况1:管理设备将获得的坐标信息进行垂直偏移处理。
例如,参阅图8a所示,假设待检测视频帧x分辨率为:1080*960像素,且以待检测视频帧x左上角为原点(即原点O),建立坐标系;
则基于预设的车辆检测算法,分别获取待检测视频帧x中,各个车辆各自的车辆坐标信息,具体如表2所示:
表2
Figure BDA0003297021380000111
那么,假设根据预设的偏移模型,按照将上述坐标信息垂直偏移25%的方式,对获得的各个车辆各自的车辆坐标信息进行偏移处理,则最终获得的各个车辆各自的车辆偏移坐标信息,具体如表3所示:
表3
Figure BDA0003297021380000112
情况2:管理设备将获得的坐标信息进行水平偏移处理。
在一种可选的实施例中,参阅图8b所示,假设待检测视频帧x分辨率为:1080*960像素,且以待检测视频帧x左上角为原点(即原点O),建立坐标系;
则基于预设的车辆检测算法,分别获取待检测视频帧x中,各个车辆各自的车辆坐标信息,具体如下表4所示:
表4
Figure BDA0003297021380000113
那么,假设根据预设的偏移模型,按照将上述坐标信息水平偏移25%的方式,对获得的各个车辆各自的车辆坐标信息进行偏移处理,考虑到图像对称性,位于停车区域A,停车区域C中的车辆的车辆坐标信息需向右偏移,而位于停车区域B,停车区域D中的车辆对应的车辆坐标信息需向左偏移,则最终获得的各个车辆各自的车辆偏移坐标信息,具体如表5所示:
表5
Figure BDA0003297021380000121
参阅图9所示,在一个可选的实施例中,在执行步骤3111的过程中,在基于预设的车辆检测算法,分别获取待检测视频帧x中,各个车辆的车辆坐标信息时,具体可以采用以下方式:
步骤31111:按照预设的分割规则,对待检测视频帧x进行分割处理,获得待检测视频帧x对应的至少一个视频帧子图。
具体的,可以按照待检测视频帧x中,各个停车区域的边界,将待检测视频帧分割成对应的至少一个视频帧子图,使每个视频帧子图分别对应一个停车区域。
例如,仍以待检测视频帧x为例,参阅图10所示,在待检测视频帧x中,根据停车区域A,停车区域B,停车区域C,停车区域D各自的边界,将待检测视频帧分割成对应的四个视频帧子图,各自对应着上述四个停车区域。
步骤31112:针对至少一个视频帧子图,分别执行以下操作:确定一个待检测子图中包含的车辆数目,并基于预设的车辆检测算法,分别获得一个视频帧子图中,各个车辆各自的局部车辆坐标信息。
具体的,本申请实施例中,在执行步骤31112时,管理设备可以分别确定各个视频帧子图各自对应的车辆数目,并根据车辆检测算法,分别获得各个视频帧子图各自对应的各个车辆的局部车辆坐标信息;可选的,管理设备可以通过车辆检测算法,检测各个车辆的中心点坐标,并将每个车辆的中心点坐标,作为相应车辆的局部车辆坐标信息。
参阅图11所示,以视频帧子图b为例,假设视频帧子图b中包含的车辆数目为2,分别为:车位4中停放的车辆3,车位6中停放的车辆4;那么,管理设备可以基于预设的车辆检测算法,获取车辆3,车辆4各自的局部车辆坐标信息,假设将检测到的车辆3,车辆4的中心点坐标分别作为车辆3,车辆4的局部车辆坐标信息,则获取到的车辆3的局部车辆坐标信息为:(190,245);车辆4的局部车辆坐标信息为:(384,304)。
采用相同方式,来分别获得视频帧子图a,视频帧子图c,视频帧子图d中,对应车辆的局部车辆坐标信息,上述过程仅以获得视频帧子图b对应的各个车辆的局部车辆坐标信息为例,详细过程不再一一赘述。
步骤31113:基于获得的至少一个视频帧子图中,各个车辆各自的局部车辆坐标信息,采用预设的分割还原算法,获得待检测视频帧x中,各个车辆的车辆坐标信息。
具体的,本申请实施例中,在执行步骤31113时,管理设备可以采用预设的分割还原算法,将获得的至少一个视频帧子图进行拼接,重新还原成完整的待检测视频帧x,在这一过程中,分割还原算法将获得的各个车辆各自对应的局部车辆坐标信息分别转换到待检测视频帧x中的原有坐标系中,以获得待检测视频帧x中,包含的所有车辆各自的车辆坐标信息。
进一步地,在一个可选的实施例中,仍以图10所示的四个视频帧子图为例,管理设备采用分割还原算法,将上述获得的四个视频帧子图按照原有序列进行还原,获得待检测视频帧x中,各个车辆各自的局部车辆坐标信息。
假设每个视频帧子图的分辨率为:540*480像素,则各个车辆各自的局部车辆坐标信息如下表6所示:
表6
Figure BDA0003297021380000131
则采用分割还原算法,将各个局部车辆坐标信息一一映射到待检测视频帧x的坐标系中,假设待检测视频帧x的分辨率为:1080*960像素,则获得的各个车辆各自的车辆坐标信息如下表7所示:
表7
Figure BDA0003297021380000141
步骤3112:获取待检测视频帧x中,各个车位各自的车位区域坐标信息。
具体的,本申请实施例中,在获得待检测视频帧x中,各个车辆的车辆偏移坐标信息后,在执行步骤3112时,管理设备还需要获得每个车位各自的车位区域坐标信息,以判断各个车辆各自的停车情况,其中,每个车位对应的车位区域坐标信息是预先配置在服务器中,并由管理设备在执行步骤3012时,通过服务器与管理设备间连接的数据传输通道,从服务器中对应获得的。
例如,仍以图8a所示的待检测视频帧x为例,假设待检测视频帧x为1080*960像素,则待检测视频帧x中,车位1-车位12各自对应的车位区域坐标信息具体如下表8所示:
表8
车位1 车位2 车位3 车位4 车位5 车位6
(172,311) (258,240) (356,175) (728,175) (827,219) (921,273)
车位7 车位8 车位9 车位10 车位11 车位12
(206,774) (309,703) (399,649) (715,649) (835,665) (934,747)
步骤3113:根据获得的各个车辆各自对应的车辆偏移坐标信息,及各个车位各自的车位区域坐标信息,确定待检测视频帧x对应的占用车位数量信息及空闲车位数量信息。
本申请实施例中,以任意一个车辆(以下简称为车辆x)的车辆偏移坐标信息(以下简称为车辆偏移坐标信息x),以及任意一个车位(以下简称为车位y)对应的车位区域坐标信息(以下简称为车位区域坐标信息y)为例,介绍步骤3113的执行过程如下:
具体的,管理设备可以根据车位区域坐标信息y,设定一个车位坐标范围,若车辆偏移坐标信息x处于该车位坐标范围内,则管理设备确定车位区域坐标信息y对应的车位被占用。
在一个可选的实施例中,仍以待检测视频帧x为例,其中,假设车辆x的车辆偏移坐标信息x为:(730,306),以及车位y的车位区域坐标信息y为:(728,175);则管理设备根据车位区域坐标信息y(728,175),设定一个车位坐标范围,包括横坐标范围及纵坐标范围,其中,横坐标范围为:[630,797],纵坐标范围为:[163,441];此时,车辆偏移坐标信息x处于该车位坐标范围内,则管理设备确定车位区域坐标信息y对应的车位y被占用。
通过上述方式,管理设备可以确认待检测视频帧x中,各个车位各自的停车情况,从而获得待检测视频帧x对应的占用车位数量信息及空闲车位数量信息,在此不再赘述。
步骤312:基于获得的至少一个待检测视频帧各自对应的占用车位数量信息及空闲车位数量信息,分别确定各个车位各自在第一时间范围内,距离目标时刻最近的局部停车事件及相应的局部停车时间。
具体的,对于各个车位而言,在不同待检测视频帧中的车辆停放情况可能有所不同,而若在连续的待检测视频帧中,车位处于连续占用,则说明是一次停车事件的发生,而最新的车位被连续占用的情况就对应着最新发生的停车事件,可以当做是相应车位的局部停车事件,而该局部停车事件的发生时间也可以作为相应的局部停车时间。
仍以上述5个待检测视频帧x为例,假设上述5个待检测视频帧是连续发生的,则管理设备会在认定至少两个连续待检测视频帧中,某个车位都处于占用状态时,才会认定该车位发生了一次停车事件。
例如,基于表1中记录的内容,管理设备可以确定车位1在5个待检测视频帧中均被占用,则管理设备确定车位1在此段时间内发生了一次停车事件,且由于车位1一直被占用,则管理设备确定车位1在此段时间内还未发生下一次停车事件,则该停车事件即为车位1对应的距离目标时刻最近的局部停车事件。
此外,在表1中,还记录着车位8在连续的待检测视频帧1与待检测视频帧2中均被占用,则管理设备确定车位8在此段时间内发生了一次停车事件;但随后,在表1中,还记录着车位8在待检测视频帧3中未被占用,则管理设备确定车位8对应的上一次发生停车事件结束;进一步地,在表1中,继续记录了车位8在连续的待检测视频帧4与待检测视频帧5中再次均被占用,则管理设备确定车位8在此段时间内又再次发生了一次停车事件。假设待检测视频帧4与待检测视频帧5对应的时间距离目标时刻更近,则管理设备确定这次距离目标时刻更近的停车事件为车位8对应的局部停车事件。
基于上述方式,可获得上述12个车位各自的局部停车事件及相应的局部停车时间,在此不做赘述。
步骤313:分别确定获得的停车区域集合中,各个停车区域各自包含的车位数目,并基于各个车位各自对应的局部停车事件及相应的局部停车时间,分别确定各个停车区域各自在第一时间范围内的候选停车事件及相应的候选停车时间。
本申请实施例中,各个停车区域各自对应着不同的车位,而每个车位各自具有确定的局部停车事件及对应的局部停车时间,对每个于单个停车区域而言,管理设备可以根据对应的各个车位各自的局部停车时间,可以确定与目标时刻最接近的一个车位对应的局部停车事件为候选停车事件,对应的局部停车时间为候选停车时间。
仍以上述5个待检测视频帧x获得的各个车位各自的局部停车事件为例。由图5可知,停车区域A对应的车位为车位1,车位2,车位3;
假设车位1的局部停车事件为:在目标时刻之前1分钟时,发生的一次停车事件;
假设车位2的局部停车事件为:在目标时刻之前3分钟时,发生的一次停车事件;
假设车位3的局部停车事件为:在目标时刻之前5分钟时,发生的一次停车事件;
由于车位1对应的局部停车事件对应的局部停车时间与目标时刻最为接近,则确定车位1对应的局部停车事件为停车区域A的候选停车事件,对应的局部停车时间为候选停车时间。
基于上述方式,还可获得停车区域B,停车区域C,停车区域D各自的候选停车事件及相应的候选停车时间,在此不做赘述。
步骤314:基于获得的各个候选停车事件及相应的候选停车时间,分别生成各个停车区域各自对应的停车状态信息。
例如,在一个可选的实施例中,
假设停车区域A对应的候选停车事件为:距离目标时刻之前1分钟时,车位1发生的一次停车事件;
假设停车区域B的候选停车事件为:距离目标时刻之前3分钟时,车位5发生的一次停车事件;
假设停车区域C的候选停车事件为:距离目标时刻之前5分钟时,车位10发生的一次停车事件;
假设停车区域D的候选停车事件为:距离目标时刻之前2分钟时,车位12发生的一次停车事件。
则管理设备根据上述四个停车区域各自的候选停车事件及相应的候选停车时间,分别生成停车区域A、停车区域B、停车区域C和停车区域D各自对应的停车状态信息。
根据各个停车区域各自对应的停车状态信息,管理设备可以迅速确认各个停车区域中,距离目标时刻最近的一次停车事件发生在停车区域中的哪一个车位,同时,还可以确定了对应的停车时间。
步骤32:对待检测图像进行图像处理,获得目标对象的面部特征信息和目标对象在待检测图像中的位置信息。
本申请实施例中,获得目标对象的面部特征信息是为了确认目标对象的对象身份,进一步的,获得目标对象的位置信息,是为了确定目标寻车路线规划的终点。
具体的,参阅图12所示,在一种可选的实施例中,在执行步骤32时,可以执行但不限于以下操作:
步骤321:基于预设的脸部检测算法,对待检测图像进行图像处理,获得目标对象的面部特征信息。
具体的,本申请实施例中,管理设备可以根据脸部检测算法,检测到待检测图像中的目标对象,并获得目标对象的面部特征信息。
例如,采用多任务卷积神经网络算法(Multi-task Cascaded ConvolutionalNetworks,MTCNN),获得目标对象的面部特征信息L=[L0,L1,…,L128]。
步骤322:基于预设的人像检测算法,对待检测图像进行图像处理,获得目标对象在待检测图像中的位置信息。
具体的,本申请实施例中,管理设备可以基于预设的人像检测算法,获得目标对象的中心点在待检测图像中的对象坐标信息,并将上述中心点的对象坐标信息作为目标对象在待检测图像中的位置信息。
例如,假设基于预设的人像检测算法,获得目标对象的中心点在待检测图像中的对象坐标信息为:(472,388),则管理设备将(472,388)作为目标对象在待检测图像中的位置信息。
步骤33:基于获得的目标对象的位置信息及停车状态信息,在停车区域集合中,确定目标对象对应的目标停车区域,并获取目标停车区域的目标区域标识。
具体的,本申请实施例中,在执行步骤33时,基于目标对象的对象位置信息,可以确定在第一时间范围内,目标对象可能进行目标停车事件的事件位置信息,而基于停车状态信息,则可以进一步确定目标对象可能进行目标停车事件的事件时间信息,那么根据获得的事件位置信息及事件时间信息,就可以在停车区域集合中,与各个停车区域各自对应的候选停车事件及候选停车时间进行匹配,从而将匹配成功的停车区域,作为目标停车区域。
例如,管理设备根据目标对象在待检测图像中的对象位置信息,即(472,388),确定在第一时间范围内,目标对象可能进行目标停车事件的事件位置信息,为:(377,321);
以及假设停车区域集合中,包含的各个停车区域如下:
停车区域A,停车区域B,停车区域C,停车区域D,且各个停车区域的各自对应的候选停车事件及候选停车时间如下:
停车区域A对应的候选停车事件:距离目标时刻之前1分钟时,车位1发生的一次停车事件;以及停车区域A对应的候选停车时间:目标时刻之前1分钟;
停车区域B对应的候选停车事件:距离目标时刻之前3分钟时,车位5发生的一次停车事件;以及停车区域B对应的候选停车时间:目标时刻之前3分钟;
停车区域C对应的候选停车事件为:距离目标时刻之前5分钟时,车位10发生的一次停车事件;以及停车区域C对应的候选停车时间:目标时刻之前5分钟;
停车区域D对应的候选停车事件:距离目标时刻之前2分钟时,车位12发生的一次停车事;以及停车区域C对应的候选停车时间:目标时刻之前2分钟。
基于上述停车状态信息,则可以进一步确定目标对象可能进行目标停车事件的事件时间信息,为:1分钟,3分钟,5分钟,2分钟。
那么,管理设备经过检测,确定待检测图像包含的停车区域集合中,与目标对象对应的目标停车区域为停车区域A,并获得停车区域A的目标区域标识,为01-020-1(楼层-区域-停车区域A)。
进一步地,参阅图13所示,在一种可选的实施例中,在执行步骤33的过程中,在基于获得的目标对象的位置信息及停车状态信息,在停车区域集合中,确定目标对象对应的目标停车区域时,管理设备具体可以执行但不限于以下操作:
步骤331:基于获得的停车状态信息中,至少一个候选停车区域,各自在第一时间范围内的候选停车事件及相应的候选停车时间,选取一个距离目标时刻最近的候选停车事件作为最新停车事件,以及将最新停车事件对应的候选停车时间作为最新停车时间。
在一种可选的实施例中,
假设停车区域A的候选停车事件为:距离目标时刻之前1分钟时,车位1发生的一次停车事件;
假设停车区域B的候选停车事件为:距离目标时刻之前3分钟时,车位5发生的一次停车事件;
假设停车区域C的候选停车事件为:距离目标时刻之前5分钟时,车位10发生的一次停车事件;
假设停车区域D的候选停车事件为:距离目标时刻之前2分钟时,车位12发生的一次停车事件。
则选取距离目标时刻最近的停车区域A的候选停车事件作为最新停车事件,以及将最新停车事件对应的候选停车时间,即目标时刻之前1分钟,作为最新停车时间。
步骤332:判断最新停车时间是否在预设的第二时间范围内,若是,则执行步骤333;否则,执行步骤324。
在实际场景中,目标对象在停放目标车辆后,可能不会立即下车,考虑到目标时刻与最新停车时间之间可能存在的时间差,可选的,需要以获取到待检测图像的目标时刻为基准,向前设定一个第二时间范围,则管理设备会根据最新停车时间是否在预设的第二时间范围内,判断最新停车事件是否为目标停车事件。
步骤333:将最新停车事件对应的候选停车区域作为目标停车区域。
具体的,若管理设备确定最新停车时间在预设的第二时间范围内,则说明将目标停车事件最可能在最新停车时间发生,则管理设备可以将最新停车事件判断为目标停车事件。
例如,假设管理设备设置第二时间范围为:目标时刻向前5分钟;获得的最新停车事件为:停车区域A中,距离目标时刻之前1分钟时,车位1发生的一次停车事件,则对应的最新停车时间为:目标时刻之前1分钟。
由于最新停车时间在预设的第二时间范围内,则管理设备确定最新停车事件对应的停车区域A为目标停车区域。
步骤334:将停车区域集合中各个停车区域共同组成的耦合区域,作为目标停车区域。
具体的,若管理设备确定最新停车时间未在预设的第二时间范围内,则说明目标停车事件在最新停车时间发生的可能性较低,则管理设备需要将停车区域集合中,各个停车区域进行耦合处理。
例如,假设管理设备设置第二时间范围为:目标时刻向前2分钟;获得的最新停车事件为:停车区域A中,距离目标时刻之前5分钟时,车位1发生的一次停车事件,则对应的最新停车时间为:目标时刻之前5分钟。
由于最新停车时间未在预设的第二时间范围内,则管理设备需要将停车区域集合中,各个停车区域进行耦合处理,并将耦合后的区域作为目标停车区域。
参阅图14所示,管理设备将基于每个停车区域的边界,将停车区域A,停车区域B,停车区域C,停车区域D进行耦合,获得耦合后的区域M,并将区域M作为目标停车区域。
步骤34:将获得的面部特征信息和目标区域标识发往服务器,以使服务器在接收到目标对象发送的寻车指令时,基于获得的面部特征信息及目标区域标识,以目标对象的当前位置为起点,为目标对象规划相应的寻车路线。
具体的,管理设备将获得的面部特征信息和目标区域标识发往服务器后,服务器会将目标对象的面部特征信息和目标区域标识进行关联存储。
那么,当服务器接收到目标对象发送的寻车指令时,会基于寻车指令获得的目标对象的面部采集数据,以及目标对象当前的位置信息,接着,服务器会基于面部采集数据,与预存的各个面部特征信息进行匹配,在匹配成功后,获取匹配成功的面部特征信息对应的目标区域标识,接着,基于目标区域标识确定目标停车区域的位置信息,最后,基于目标对象当前的对象位置信息与目标停车区域的位置信息,生成规划的寻车路线。
例如,假设面部采集数据匹配与预存的各个面部特征信息匹配成功后,基于匹配成功的面部特征信息对应的目标区域标识01-020-1,确定目标停车区域的位置信息为(732,295),同时,获得目标对象当前的位置信息为(2000,136),则为目标对象规划相应的寻车路线,如图15所示。
值得注意的是,本申请实施例仅以一种基于鱼眼镜头的特殊情况为例,在更普遍的情况下,摄像设备还可以采用其他镜头,采集不同种类的待检测图像,而管理设备针对不同种类的待检测图像,仍能利用上述寻车路线的规划方法,为目标对象规划目标寻车路线,因此,这些情况也应在本申请保护范围之内。
参阅图16所示,为本申请实施例提供的一种寻车路线的规划装置,包括:第一获取模块1601,第二获取模块1602,确定模块1603,通信模块1604,其中:
第一获取模块1601,用于获取目标时刻采集的待检测图像,以及获取从目标时刻起始向前的第一时间范围内采集的至少一个待检测视频帧,并基于获得的至少一个待检测视频帧,获得所述待检测图像包含的停车区域集合中,各个停车区域各自在第一时间范围内的停车状态信息,其中,待检测图像包含停车场中的目标对象及相应的周边环境。
第二获取模块1602,用于对待检测图像进行图像处理,获得目标对象的面部特征信息和目标对象在待检测图像中的位置信息。
确定模块1603,用于基于位置信息及停车状态信息,在停车区域集合中,确定目标对象对应的目标停车区域,并获取目标停车区域的目标区域标识。
通信模块1604,用于将面部特征信息和目标区域标识发往服务器,以使服务器在接收到目标对象发送的寻车指令时,基于面部特征信息及目标区域标识,以目标对象的当前位置为起点,为目标对象规划相应的寻车路线。
一种可选的实施例中,在基于获得的至少一个待检测视频帧,获得待检测图像包含的停车区域集合中,各个停车区域各自在第一时间范围内的停车状态信息时,第一获取模块1601具体用于:
针对获得的至少一个待检测视频帧,分别执行以下操作:基于一个待检测视频帧包含的各个车位的车辆停放情况,确定一个待检测视频帧对应的占用车位数量信息及空闲车位数量信息。
基于获得的至少一个待检测视频帧各自对应的占用车位数量信息及空闲车位数量信息,分别确定各个车位各自在第一时间范围内,距离目标时刻最近的局部停车事件及相应的局部停车时间。
分别确定停车区域集合中,各个停车区域各自包含的车位数目,并基于各个车位各自对应的局部停车事件及相应的局部停车时间,分别确定各个停车区域各自在第一时间范围内的候选停车事件及相应的候选停车时间。
基于获得的各个候选停车事件及相应的候选停车时间,分别生成各个停车区域各自对应的停车状态信息。
一种可选的实施例中,在基于一个待检测视频帧包含的各个车位的车辆停放情况,确定一个待检测视频帧对应的占用车位数量信息及空闲车位数量信息时,第一获取模块1601具体用于:
基于预设的车辆检测算法,分别获取一个待检测视频帧中,各个车辆的车辆坐标信息,并基于预设的偏移模型,对各个车辆的车辆坐标信息进行偏移处理,获得各个车辆各自对应的车辆偏移坐标信息。
获取一个待检测视频帧中,各个车位各自的车位区域坐标信息。
根据各个车辆各自对应的车辆偏移坐标信息,及各个车位各自的车位区域坐标信息,确定一个待检测视频帧对应的占用车位数量信息及空闲车位数量信息。
一种可选的实施例中,在基于预设的车辆检测算法,分别获取一个待检测视频帧中,各个车辆的车辆坐标信息时,第一获取模块1601具体用于:
按照预设的分割规则,对一个待检测视频帧进行分割处理,获得一个待检测视频帧对应的至少一个视频帧子图。
针对至少一个视频帧子图,分别执行以下操作:确定一个待检测子图中包含的车辆数目,并基于预设的车辆检测算法,分别获得一个视频帧子图中,各个车辆各自的局部车辆坐标信息。
基于至少一个视频帧子图中,各个车辆各自的局部车辆坐标信息,采用预设的分割还原算法,获得一个待检测视频帧中,各个车辆的车辆坐标信息。
一种可选的实施例中,在基于各个车位各自对应的局部停车事件及对应的局部停车时间,分别确定各个停车区域各自在第一时间范围内的候选停车事件及对应的候选停车时间时,第一获取模块1601具体用于:
针对各个停车区域,分别执行以下操作:
基于一个停车区域包含的各个车位各自对应的局部停车事件及相应的局部停车时间,将距离目标时刻最近的局部停车时间作为一个停车区域对应的候选停车时间,以及将候选停车时间对应的局部停车事件作为一个停车区域对应的候选停车事件。
一种可选的实施例中,在对待检测图像进行图像处理,获得目标对象的面部特征信息和目标对象在待检测图像中的位置信息时,第二获取模块1602具体用于:
基于预设的脸部检测算法,对待检测图像进行图像处理,获得目标对象的面部特征信息。
基于预设的人像检测算法,对待检测图像进行图像处理,获得目标对象在待检测图像中的位置信息。
一种可选的实施例中,在基于位置信息及停车状态信息,在停车区域集合中,确定目标对象对应的目标停车区域时,确定模块1603具体用于:
基于停车状态信息中,至少一个候选停车区域,各自在第一时间范围内的候选停车事件及相应的候选停车时间,选取一个距离目标时刻最近的候选停车事件作为最新停车事件,以及将最新停车事件对应的候选停车时间作为最新停车时间。
判断最新停车时间是否在预设的第二时间范围内,若是,则将最新停车事件对应的候选停车区域作为目标停车区域;否则,将停车区域集合中各个停车区域共同组成的耦合区域,作为目标停车区域。
与上述申请实施例基于同一发明构思,本申请实施例中还提供了一种电子设备,该电子设备可以用于寻车路线的规划。在一种实施例中,该电子设备可以是服务器,也可以是终端设备或其他电子设备。在该实施例中,电子设备的结构可以如图17所示,包括存储器1701,通讯接口1703以及一个或多个处理器1702。
存储器1701,用于存储处理器1702执行的计算机程序。存储器1701可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统,以及运行即时通讯功能所需的程序等;存储数据区可存储各种即时通讯信息和操作指令集等。
存储器1701可以是易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器1701也可以是非易失性存储器(non-volatilememory),例如只读存储器,快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD)、或者存储器1701是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器1701可以是上述存储器的组合。
处理器1702,可以包括一个或多个中央处理单元(Central Processing Unit,CPU)或者为数字处理单元等。处理器1702,用于调用存储器1701中存储的计算机程序时实现上述寻车路线的规划方法。
通讯接口1703用于与终端设备和其他服务器进行通信。
本申请实施例中不限定上述存储器1701、通讯接口1703和处理器1702之间的具体连接介质。本申请实施例在图17中以存储器1701和处理器1702之间通过总线1704连接,总线1704在图17中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。总线1704可以分为地址总线、数据总线、控制总线等。为便于表示,图17中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中的任一种寻车路线的规划方法。所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本申请实施例中,获取目标对象的面部特征信息及目标对象在待检测图像中的位置信息,并根据上述位置信息,及停车区域集合中,各个停车区域各自发生的最新停车事件,确定目标对象对应的目标停车区域,并获得目标停车区域的目标区域标识,再根据上述目标对象的面部特征信息及上述目标停车区域的目标区域标识,为目标对象规划相应的寻车路线。基于这种方式,将识别到的目标对象的面部特征信息与对应的目标停车区域的目标区域标识关联,与现有技术相比,这种方式不受环境因素的影响,避免了因环境因素导致的部分特征数据缺失的问题,确保了目标对象对应的目标停车区域的可信度,提高了寻车线路的规划准确性。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种寻车路线的规划方法,其特征在于,包括:
获取目标时刻采集的待检测图像,以及获取从所述目标时刻起始向前的第一时间范围内采集的至少一个待检测视频帧,并基于所述至少一个待检测视频帧,获得所述待检测图像包含的停车区域集合中,各个停车区域各自在所述第一时间范围内的停车状态信息,其中,所述待检测图像包含停车场中的目标对象及相应的周边环境;
对所述待检测图像进行图像处理,获得目标对象的面部特征信息和所述目标对象在所述待检测图像中的位置信息;
基于所述位置信息及所述停车状态信息,在所述停车区域集合中,确定所述目标对象对应的目标停车区域,并获取所述目标停车区域的目标区域标识;
将所述面部特征信息和所述目标区域标识发往服务器,以使所述服务器在接收到所述目标对象发送的寻车指令时,基于所述面部特征信息及所述目标区域标识,以所述目标对象的当前位置为起点,为所述目标对象规划相应的寻车路线。
2.如权利要求1所述的方法,其特征在于,所述基于所述至少一个待检测视频帧,获得所述待检测图像包含的停车区域集合中,各个停车区域各自在所述第一时间范围内的停车状态信息,包括:
针对所述至少一个待检测视频帧,分别执行以下操作:基于一个待检测视频帧包含的各个车位的车辆停放情况,确定所述一个待检测视频帧对应的占用车位数量信息及空闲车位数量信息;
基于获得的所述至少一个待检测视频帧各自对应的占用车位数量信息及空闲车位数量信息,分别确定所述各个车位各自在所述第一时间范围内,距离所述目标时刻最近的局部停车事件及相应的局部停车时间;
分别确定所述停车区域集合中,各个停车区域各自包含的车位数目,并基于所述各个车位各自对应的所述局部停车事件及相应的局部停车时间,分别确定所述各个停车区域各自在所述第一时间范围内的候选停车事件及相应的候选停车时间;
基于获得的各个候选停车事件及相应的候选停车时间,分别生成所述各个停车区域各自对应的所述停车状态信息。
3.如权利要求2所述的方法,其特征在于,所述基于一个待检测视频帧包含的各个车位的车辆停放情况,确定所述一个待检测视频帧对应的占用车位数量信息及空闲车位数量信息,包括:
基于预设的车辆检测算法,分别获取所述一个待检测视频帧中,各个车辆的车辆坐标信息,并基于预设的偏移模型,对所述各个车辆的车辆坐标信息进行偏移处理,获得所述各个车辆各自对应的车辆偏移坐标信息;
获取所述一个待检测视频帧中,各个车位各自的车位区域坐标信息;
根据所述各个车辆各自对应的车辆偏移坐标信息,及所述各个车位各自的车位区域坐标信息,确定所述一个待检测视频帧对应的占用车位数量信息及空闲车位数量信息。
4.如权利要求3所述的方法,其特征在于,基于预设的车辆检测算法,分别获取所述一个待检测视频帧中,各个车辆的车辆坐标信息,包括:
按照预设的分割规则,对所述一个待检测视频帧进行分割处理,获得所述一个待检测视频帧对应的至少一个视频帧子图;
针对所述至少一个视频帧子图,分别执行以下操作:确定一个待检测子图中包含的车辆数目,并基于预设的车辆检测算法,分别获得所述一个视频帧子图中,各个车辆各自的局部车辆坐标信息;
基于所述至少一个视频帧子图中,各个车辆各自的局部车辆坐标信息,采用预设的分割还原算法,获得所述一个待检测视频帧中,各个车辆的车辆坐标信息。
5.如权利要求2所述的方法,其特征在于,所述基于所述各个车位各自对应的所述局部停车事件及对应的局部停车时间,分别确定所述各个停车区域各自在所述第一时间范围内的候选停车事件及对应的候选停车时间,包括:
针对所述各个停车区域,分别执行以下操作:
基于一个停车区域包含的各个车位各自对应的所述局部停车事件及相应的局部停车时间,将距离目标时刻最近的所述局部停车时间作为所述一个停车区域对应的候选停车时间,以及将所述候选停车时间对应的局部停车事件作为所述一个停车区域对应的候选停车事件。
6.如权利要求1-5中任一项所述的方法,其特征在于,所述对待检测图像进行图像处理,获得目标对象的面部特征信息和所述目标对象在所述待检测图像中的位置信息,包括:
基于预设的脸部检测算法,对所述待检测图像进行图像处理,获得所述目标对象的面部特征信息;
基于预设的人像检测算法,对所述待检测图像进行图像处理,获得所述目标对象在所述待检测图像中的位置信息。
7.如权利要求2-5任一项所述的方法,其特征在于,所述基于所述位置信息及所述停车状态信息,在所述停车区域集合中,确定所述目标对象对应的目标停车区域,包括:
基于所述停车状态信息中,所述至少一个候选停车区域,各自在所述第一时间范围内的候选停车事件及相应的候选停车时间,选取一个距离所述目标时刻最近的所述候选停车事件作为最新停车事件,以及将所述最新停车事件对应的所述候选停车时间作为最新停车时间;
判断所述最新停车时间是否在预设的第二时间范围内,
若是,则将所述最新停车事件对应的候选停车区域作为所述目标停车区域;
否则,将所述停车区域集合中各个停车区域共同组成的耦合区域,作为所述目标停车区域。
8.一种寻车路线的规划装置,其特征在于,包括:
第一获取模块,用于获取目标时刻采集的待检测图像,以及获取从所述目标时刻起始向前的第一时间范围内采集的至少一个待检测视频帧,并基于所述至少一个待检测视频帧,获得所述待检测图像包含的停车区域集合中,各个停车区域各自在所述第一时间范围内的停车状态信息,其中,所述待检测图像包含停车场中的目标对象及相应的周边环境;
第二获取模块:用于对所述待检测图像进行图像处理,获得目标对象的面部特征信息和所述目标对象在所述待检测图像中的位置信息;
确定模块,用于基于所述位置信息及所述停车状态信息,在所述停车区域集合中,确定所述目标对象对应的目标停车区域,并获取所述目标停车区域的目标区域标识;
通信模块,用于将所述面部特征信息和所述目标区域标识发往服务器,以使所述服务器在接收到所述目标对象发送的寻车指令时,基于所述面部特征信息及所述目标区域标识,以所述目标对象的当前位置为起点,为所述目标对象规划相应的寻车路线。
9.一种电子设备,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述的寻车路线的规划方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7中任一所述方法的步骤。
CN202111180672.1A 2021-10-11 2021-10-11 一种寻车路线的规划方法、装置、电子设备及存储介质 Pending CN114037926A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111180672.1A CN114037926A (zh) 2021-10-11 2021-10-11 一种寻车路线的规划方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111180672.1A CN114037926A (zh) 2021-10-11 2021-10-11 一种寻车路线的规划方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN114037926A true CN114037926A (zh) 2022-02-11

Family

ID=80141079

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111180672.1A Pending CN114037926A (zh) 2021-10-11 2021-10-11 一种寻车路线的规划方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114037926A (zh)

Similar Documents

Publication Publication Date Title
CN110910655A (zh) 一种停车管理方法、装置及设备
EP3806064B1 (en) Method and apparatus for detecting parking space usage condition, electronic device, and storage medium
CN110334569B (zh) 客流量进出识别方法、装置、设备及存储介质
CN111739175B (zh) 一种车辆停车监控方法和装置
WO2021139049A1 (zh) 检测方法、检测装置、监控设备和计算机可读存储介质
CN112289070B (zh) 一种车位检测方法、装置、车辆、可读介质
CN111340710B (zh) 一种基于图像拼接获取车辆信息的方法及系统
CN113066306B (zh) 一种路侧停车的管理方法及装置
CN112053397A (zh) 图像处理方法、装置、电子设备及存储介质
CN113781827A (zh) 一种云平台的视频数据管理方法及云平台
CN113450575B (zh) 一种路侧停车的管理方法及装置
CN110880205A (zh) 一种停车收费方法及装置
CN113869258A (zh) 交通事件检测方法、装置、电子设备及可读存储介质
CN113869115A (zh) 一种人脸图像处理的方法及系统
CN116912517B (zh) 相机视野边界的检测方法及装置
CN109726684B (zh) 一种地标元素获取方法和地标元素获取系统
CN113963307A (zh) 目标上内容的识别及视频采集方法、装置、存储介质、计算机设备
KR102080456B1 (ko) 압축영상에 대한 신택스 기반의 ptz 카메라의 객체 추적 제어 방법
CN114037926A (zh) 一种寻车路线的规划方法、装置、电子设备及存储介质
CN111368692A (zh) 信息融合方法及装置、停车位置定位方法及系统
KR101875180B1 (ko) 차량을 검출하고 차량의 차량 번호를 인식하기 위한 방법, 장치 및 시스템
CN110400329B (zh) 人流计数方法及其系统
CN113850837A (zh) 视频处理方法、装置、电子设备、存储介质及计算机产品
CN111368608B (zh) 一种人脸识别方法、装置及系统
CN111860050B (zh) 一种基于图像帧的回环检测方法及装置、车载终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination