CN117095338B - 基于道路视频识别的无线停车方法及相关装置 - Google Patents

基于道路视频识别的无线停车方法及相关装置 Download PDF

Info

Publication number
CN117095338B
CN117095338B CN202311345738.7A CN202311345738A CN117095338B CN 117095338 B CN117095338 B CN 117095338B CN 202311345738 A CN202311345738 A CN 202311345738A CN 117095338 B CN117095338 B CN 117095338B
Authority
CN
China
Prior art keywords
driven
data
space
parking
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311345738.7A
Other languages
English (en)
Other versions
CN117095338A (zh
Inventor
姜华
丁家亮
刘裕发
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Qianhai Rheniuting Technology Co ltd
Original Assignee
Shenzhen Qianhai Rheniuting Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Qianhai Rheniuting Technology Co ltd filed Critical Shenzhen Qianhai Rheniuting Technology Co ltd
Priority to CN202311345738.7A priority Critical patent/CN117095338B/zh
Publication of CN117095338A publication Critical patent/CN117095338A/zh
Application granted granted Critical
Publication of CN117095338B publication Critical patent/CN117095338B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

本发明涉及图像识别技术领域,公开了一种基于道路视频识别的无线停车方法及相关装置,用于提高基于道路视频识别的无线停车的准确率。包括:对目标停车场进行区域划分及空闲位置标定,得到多个待停车区域及多个空闲位置并进行待驶入区域建模得到待驶入空间模型;对目标车辆进行道路视频采集,得到目标车辆的待分析道路视频;对待分析道路视频进行环境特征提取,得到环境特征集,对待驶入空间模型进行待驶入空间位置映射,得到待驶入空间位置区域;将待驶入空间位置区域及当前位置信息输入深度强化学习模型进行行驶路线规划,得到目标行驶路线并进行导航模块匹配,得到多个外部导航模块,以及控制多个外部导航模块进行导航指引。

Description

基于道路视频识别的无线停车方法及相关装置
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于道路视频识别的无线停车方法及相关装置。
背景技术
在现代城市中,车辆的增加导致了停车难题的日益突出,同时交通拥堵也成为了一个严重的问题。为了解决这些挑战,研究人员和工程师们开始借助物联网、深度学习和导航技术等,致力于开发更智能、高效的停车管理和导航系统。这些技术的结合可以实现实时停车位监测、个性化导航指引以及交通流优化,从而提升驾驶员的停车体验、减少交通拥堵,并改善城市交通环境。
然而,传统方案中虽然能够提供实时的车位占用信息,但数据准确性受到一些因素的影响,如传感器故障、遮挡等,导致车位占用状态误判。虽然深度强化学习模型在行驶路线规划中具有潜力,但在复杂的交通环境中,模型未考虑到交通流和道路变化等因素,导致生成的路线不够准确。
发明内容
本发明提供了一种基于道路视频识别的无线停车方法及相关装置,用于提高基于道路视频识别的无线停车的准确率。
本发明第一方面提供了一种基于道路视频识别的无线停车方法,所述基于道路视频识别的无线停车方法包括:
通过目标停车场的每个停车位中安装的物联网数据检测单元进行车位占用情况分析,得到车位占用数据;
通过所述车位占用数据对所述目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型;
获取目标车辆的当前位置信息,基于所述当前位置信息,在预设的时间区间内对所述目标车辆进行道路视频采集,得到所述目标车辆的待分析道路视频;
对所述待分析道路视频进行环境特征提取,得到环境特征集,并通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;
将所述待驶入空间位置区域以及所述当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对所述目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个所述外部导航模块进行导航指引。
结合第一方面,在本发明第一方面的第一实施方式中,所述通过所述车位占用数据对所述目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型,包括:
通过预置的分布式算法对所述车位占用数据进行分布式存储,得到多个数据节点以及每个数据节点的存储数据;
对每个所述数据节点的存储数据进行数据聚合处理,得到聚合数据集;
对所述聚合数据集进行缺失值填充,得到待分析聚合数据集;
对所述待分析聚合数据集进行车位状态统计,得到多个所述空闲位置;
将每个所述数据节点的存储数据输入预置的卷积神经网络进行停车场布局分析,得到停车场布局信息;
通过多个所述空闲位置对所述停车场布局信息进行区域划分,得到多个所述待停车区域;
对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型。
结合第一方面的第一实施方式,在本发明第一方面的第二实施方式中,所述对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型,包括:
对多个所述待停车区域进行区域边界提取,得到每个所述待停车区域的区域边界信息;
基于多个所述空闲位置以及每个所述待停车区域的区域边界信息,对每个所述待停车区域进行空闲位置数量计算,得到每个所述待停车区域的空闲位置数量;
通过每个所述待停车区域的空闲位置数量,对多个所述待停车区域进行区域空间结构提取,得到每个所述待停车区域的区域空间结构;
对每个所述待停车区域的区域空间结构进行高维特征转换,得到高维特征集合;
通过所述高维特征集合进行待驶入区域建模,得到所述待驶入空间模型。
结合第一方面,在本发明第一方面的第三实施方式中,所述获取目标车辆的当前位置信息,基于所述当前位置信息,在预设的时间区间内对所述目标车辆进行道路视频采集,得到所述目标车辆的待分析道路视频,包括:
通过所述目标车辆的位置传感器进行位置信息采集,得到所述目标车辆的当前位置信息;
对所述目标车辆进行物联网节点匹配,得到所述目标车辆对应的多个物联网节点;
通过所述当前位置信息对多个所述物联网节点进行节点筛选,得到多个目标物联网节点;
通过多个所述目标物联网节点进行图像采集终端匹配,得到多个图像采集终端;
分别对每个所述图像采集终端进行工作参数分析,得到每个所述图像采集终端的工作参数集;
基于每个所述图像采集终端的工作参数集,控制每个所述图像采集终端在预设的时间区间内对所述目标车辆进行道路视频采集,得到所述目标车辆的待分析道路视频。
结合第一方面,在本发明第一方面的第四实施方式中,所述对所述待分析道路视频进行环境特征提取,得到环境特征集,并通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域,包括:
对所述待分析道路视频进行视频分割,得到多个道路视频帧;
分别对每个所述道路视频帧进行图像特征提取,得到每个所述道路视频帧的图像特征集,其中,所述图像特征集包括颜色分布数据、纹理特征以及图像轮廓数据;
对所述道路视频帧的图像特征集进行特征连接处理,得到所述环境特征集;
通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域。
结合第一方面的第四实施方式,在本发明第一方面的第五实施方式中,所述通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域,包括:
对所述环境特征集进行编码表数据分析,得到所述环境特征集对应的目标编码表;
通过所述目标编码表对所述环境特征集进行特征融合编码,得到融合编码特征;
通过所述融合编码特征对所述待驶入空间模型进行相关位置坐标分析,生成对应的相关位置坐标集合;
通过所述相关位置坐标集合对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域。
结合第一方面,在本发明第一方面的第六实施方式中,所述将所述待驶入空间位置区域以及所述当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对所述目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个所述外部导航模块进行导航指引,包括:
将所述待驶入空间位置区域以及所述当前位置信息输入所述深度强化学习模型进行状态表示构建,得到目标状态表示参数;
将所述目标状态表示参数输入所述深度强化学习模型的深度神经网络进行路径动作匹配,得到路径动作信息;
对所述路径动作信息进行动作调整参数分析,得到动作调整参数集;
通过所述动作调整参数集,将所述目标状态表示参数以及所述路径动作信息输入所述深度强化学习模型进行迭代分析,得到目标行驶路线;
对所述目标行驶路线进行路线分割,得到多个行驶子路线;
分别对每个所述行驶子路线进行导航模块匹配,得到多个外部导航模块,以及控制多个所述外部导航模块进行导航指引。
本发明第二方面提供了一种基于道路视频识别的无线停车装置,所述基于道路视频识别的无线停车装置包括:
分析模块,用于通过目标停车场的每个停车位中安装的物联网数据检测单元进行车位占用情况分析,得到车位占用数据;
标定模块,用于通过所述车位占用数据对所述目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型;
采集模块,用于获取目标车辆的当前位置信息,基于所述当前位置信息,在预设的时间区间内对所述目标车辆进行道路视频采集,得到所述目标车辆的待分析道路视频;
映射模块,用于对所述待分析道路视频进行环境特征提取,得到环境特征集,并通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;
规划模块,用于将所述待驶入空间位置区域以及所述当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对所述目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个所述外部导航模块进行导航指引。
本发明第三方面提供了一种基于道路视频识别的无线停车设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于道路视频识别的无线停车设备执行上述的基于道路视频识别的无线停车方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的基于道路视频识别的无线停车方法。
本发明提供的技术方案中,通过目标停车场的每个停车位中安装的物联网数据检测单元进行车位占用情况分析,得到车位占用数据;通过车位占用数据对目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个待停车区域以及多个空闲位置进行待驶入区域建模,得到待驶入空间模型;获取目标车辆的当前位置信息,基于当前位置信息,在预设的时间区间内对目标车辆进行道路视频采集,得到目标车辆的待分析道路视频;对待分析道路视频进行环境特征提取,得到环境特征集,并通过环境特征集对待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;将待驶入空间位置区域以及当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个外部导航模块进行导航指引。通过物联网数据检测单元,系统能够实时监测停车位的占用情况。这使得停车场管理变得更加智能和高效,可以减少找车位的时间和拥堵,提升停车场的整体管理效率。通过车位占用数据的分析和空闲位置的标定,驾驶员可以迅速找到可用的停车位,从而减少寻找停车位的时间,提高停车的便利性,优化停车体验。基于车位占用数据,停车场可以进行更精细化的区域划分,为驾驶员提供更多停车选择,有效减少拥堵和资源浪费。通过对多个待停车区域进行建模,系统可以根据不同的车辆需求和驾驶员偏好,为每辆车生成个性化的待驶入空间模型,提供更符合实际情况的停车建议。基于目标车辆的当前位置信息和环境特征,系统可以使用深度强化学习模型生成智能的行驶路线规划。导航模块的匹配确保驾驶员能够根据不同情况选择最适合的导航方式,提供实时的导航指引,减少迷路风险,以进一步提高基于道路视频识别的无线停车的准确率。
附图说明
图1为本发明实施例中基于道路视频识别的无线停车方法的一个实施例示意图;
图2为本发明实施例中对多个待停车区域以及多个空闲位置进行待驶入区域建模的流程图;
图3为本发明实施例中对目标车辆进行道路视频采集的流程图;
图4为本发明实施例中对待分析道路视频进行环境特征提取的流程图;
图5为本发明实施例中基于道路视频识别的无线停车装置的一个实施例示意图;
图6为本发明实施例中基于道路视频识别的无线停车设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种基于道路视频识别的无线停车方法及相关装置,用于提高基于道路视频识别的无线停车的准确率。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中基于道路视频识别的无线停车方法的一个实施例包括:
S101、通过目标停车场的每个停车位中安装的物联网数据检测单元进行车位占用情况分析,得到车位占用数据;
可以理解的是,本发明的执行主体可以为基于道路视频识别的无线停车装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
具体的,在目标停车场的每个停车位中安装物联网数据检测单元,这些单元通常包括传感器,如车辆探测传感器、摄像头等。这些传感器能够感知停车位的状态,例如是否被车辆占用,以及车辆的类型(小型车、大型车等)。传感器可以通过不同的技术,如压力传感、电磁感应等,来获取车位的占用情况。每个传感器会定期或实时地将获取的数据发送到数据收集中心。这些数据可以包括车位的状态(占用/空闲)、时间戳、传感器编号等。数据收集中心会对这些数据进行聚合、存储和处理。例如,可以将数据进行时间序列化,以便后续的分析和可视化。通过分析收集到的数据,服务器判断每个停车位的状态,即是否被车辆占用。例如,如果传感器检测到某个停车位上有车辆存在,服务器会将该停车位标记为“占用”,否则标记为“空闲”。这些分析可以通过预设的算法和规则来实现,也可以使用机器学习技术来提高准确性。在进行数据分析的同时,服务器也会整合多个传感器的数据,以绘制停车场的车位分布图。这张图可以显示停车位的占用情况,帮助用户快速找到空闲停车位。实时性对于停车系统至关重要。传感器数据应该及时更新,以确保用户获取的信息是准确的。服务器考虑数据传输的稳定性和延迟,以及如何应对传感器故障等异常情况。例如,考虑一个停车场,拥有20个停车位,每个停车位都安装了车辆探测传感器。这些传感器可以感知车辆的存在与否。当有车辆停入某个停车位时,传感器会发送一个信号,表示该停车位被占用。假设在某一时刻,传感器检测到停车位1、3、5被车辆占用,其他停车位为空闲。传感器会将这些信息发送到数据收集中心。数据收集中心会将这些数据整理并更新到服务器的数据库中。通过对这些数据进行分析,服务器得知停车位1、3、5被占用,其他停车位为空闲。服务器根据这些信息绘制出停车场的车位分布图,显示出占用和空闲的停车位,帮助用户快速找到可用的停车位。本实施例中,物联网数据检测单元(传感器)收集了车位的占用信息,数据收集中心对数据进行处理和分析,最终为用户提供了停车位的实时状态。这样的信息可以作为后续智能停车系统中的决策依据,例如为车辆规划行驶路线和停车位置。
S102、通过车位占用数据对目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个待停车区域以及多个空闲位置进行待驶入区域建模,得到待驶入空间模型;
需要说明的是,采用预置的分布式算法将车位占用数据进行分布式存储,以确保数据的高可用性和冗余。这将产生多个数据节点,每个节点存储部分数据。针对每个数据节点的存储数据,服务器进行数据聚合处理,将多个节点的数据合并为一个聚合数据集。由于传感器数据存在缺失值,服务器对聚合数据集进行缺失值填充,以确保后续分析的准确性和完整性。对于经过缺失值填充的聚合数据集,服务器进行车位状态统计分析。通过对数据进行处理,识别出哪些停车位是空闲的。例如,如果某个停车位连续数个时间间隔内都没有被传感器检测到车辆,那么可以推断该停车位是空闲的。接下来,服务器将每个数据节点的存储数据输入预置的卷积神经网络(CNN)进行停车场布局分析。CNN可以从图像中学习停车场的布局信息,识别出停车位的分布和排列方式。这些信息将有助于后续的区域划分。基于停车场布局信息以及已识别的空闲停车位,服务器划分停车场为多个待停车区域。这些区域可以是相邻的一组停车位,以便于车辆进出。同时,服务器还可以标定空闲停车位的位置,以便后续建模。通过对待停车区域和空闲位置的建模,服务器构建出待驶入空间模型。这个模型可以理解为一个虚拟的地图,其中标示出了可供车辆驶入的空闲位置和各个待停车区域。例如,假设有一个停车场,拥有40个停车位,分为两个区域,每个区域有20个停车位。传感器数据分布在多个数据节点上,每个节点负责监测一部分停车位。假设数据节点A监测到停车位1-10被占用,数据节点B监测到停车位21-30被占用,其他停车位均为空闲。通过分布式存储和聚合处理,得到了一个聚合数据集,对数据进行缺失值填充后,服务器识别出停车位11-20、31-40均为空闲。这些数据进入预置的卷积神经网络进行停车场布局分析。CNN学习到停车场的布局,例如哪些区域更容易出现空闲停车位。根据CNN的分析,服务器划分出两个待停车区域:停车位1-20为一个区域,停车位21-40为另一个区域。基于已识别的空闲停车位和区域划分,服务器建立了待驶入空间模型。例如,服务器知道停车位1、11、21等位置是空闲的,可以根据车辆当前位置,规划出最佳停车区域和空闲停车位,帮助驾驶员迅速找到停车位置。
其中,针对每个待停车区域,服务器从道路视频中提取区域边界信息。这可以通过计算物体的边缘或轮廓来实现,确保获得每个待停车区域的准确边界信息。在每个待停车区域中,服务器基于之前识别的空闲停车位信息,计算出该区域内的空闲停车位数量。这可以通过对空闲停车位进行统计和计数来实现。基于空闲位置数量,服务器为每个待停车区域提取区域空间结构信息。这可以是区域内空闲停车位的分布情况、密集程度等。通过这些信息,服务器了解每个待停车区域的停车场布局。接下来,服务器将提取的区域空间结构信息进行高维特征转换。这可以通过特征工程技术,如主成分分析(PCA)或其他降维方法,将提取的信息转换为具有较高表达能力的特征集合。通过应用高维特征集合,服务器对每个待停车区域进行建模,以获得待驶入空间模型。这个模型将捕捉区域内空闲位置、空间结构和其他相关特征,有助于车辆导航和停车位置规划。例如,考虑一个停车场,有两个待停车区域:区域A和区域B,每个区域都包含20个停车位。在道路视频中,服务器提取出区域A和区域B的边界信息,确定它们的物理边界。在之前的分析中,服务器已经识别出区域A内有10个空闲停车位,区域B内有15个空闲停车位。基于这些信息,服务器计算出区域A的空闲位置数量为10,区域B的空闲位置数量为15。服务器提取区域A和区域B的空间结构信息。假设区域A内的空闲停车位分布相对均匀,而区域B内的空闲停车位更集中在一个子区域内。通过高维特征转换,服务器将区域A和区域B的空间结构信息转换为高维特征集合。这些特征包括空闲位置的分布密度、距离之间的关系等。服务器通过对高维特征集合进行建模,得到了待驶入空间模型。例如,模型可以指示对于某辆车辆,区域B内的某个子区域是最佳的驶入位置,因为那里有更多的空闲停车位,并且它们分布更密集。
S103、获取目标车辆的当前位置信息,基于当前位置信息,在预设的时间区间内对目标车辆进行道路视频采集,得到目标车辆的待分析道路视频;
具体的,目标车辆需要配备位置传感器,如全球定位系统(GPS),以获取其当前位置信息。这些传感器能够准确地获取车辆的经纬度坐标,并实时更新。当目标车辆的位置信息可用后,服务器通过物联网技术匹配车辆对应的物联网节点。这些节点分布在停车场内,每个节点负责监测一定范围内的车位。通过匹配,服务器确定与目标车辆相关的多个物联网节点。在这些匹配的物联网节点中,服务器需要进行进一步筛选,以确保只选择最适合的节点进行视频采集。例如,选择离目标车辆最近的节点,以便获得更清晰的视频数据。对于每个选择的物联网节点,服务器会与相应的图像采集终端相连接。这些终端包括摄像头或其他图像传感器。在连接后,服务器会分析每个图像采集终端的工作参数,如摄像头的视野范围、分辨率、帧率等。基于获得的图像采集终端工作参数,服务器在预设的时间区间内控制每个图像采集终端进行道路视频采集。这些视频将捕捉目标车辆在停车场内的行驶情况,包括其进出停车位的过程。例如,假设有一个停车场,其中每个车位都安装了物联网节点,用于监测停车位的占用状态。这些节点连接到图像采集终端,其中包括摄像头,以捕捉停车位的实时情况。考虑一辆目标车辆,该车辆配备了GPS定位系统。当该车辆进入停车场时,它的位置传感器获得了它的当前位置坐标。服务器将目标车辆的位置坐标与物联网节点进行匹配,发现与目标车辆相邻的节点有节点A、节点B和节点C。服务器根据车辆的当前位置,选择离目标车辆最近的节点,即节点A和节点C。连接到节点A和节点C的图像采集终端被服务器分析,得知它们的工作参数,比如摄像头的视野范围、分辨率和帧率。在预设的时间区间内,服务器控制节点A和节点C的摄像头开始进行道路视频采集。这些视频会记录目标车辆在停车场内的行驶情况,包括它选择停车位、进入和离开停车位的过程。
S104、对待分析道路视频进行环境特征提取,得到环境特征集,并通过环境特征集对待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;
具体的,将待分析道路视频分割成多个道路视频帧。每个视频帧代表一个瞬间的道路情景。服务器将针对每个视频帧进行图像特征提取。这些特征可以包括颜色分布数据、纹理特征和图像轮廓数据。对于每个视频帧,从中提取的图像特征将被连接在一起,形成一个称为环境特征集的数据集。这个特征集将综合反映出道路视频中的不同视觉信息,包括颜色、纹理和形状等。接下来,通过使用环境特征集,服务器将待驶入空间模型中的每个位置映射到环境特征空间中。这个映射过程可以通过机器学习算法,如聚类或分类模型,来实现。通过这个映射,服务器找到在环境特征空间中与每个位置相对应的特征分布。例如,假设有一个停车场,包括多个待分析道路视频,这些视频捕捉了停车场不同时间段的实时情景。每个视频被分割成多个道路视频帧,每个帧代表了一个瞬间的场景。服务器针对每个视频帧进行图像特征提取。例如,对于某个视频帧,服务器提取了颜色分布、纹理特征和图像轮廓等特征。这些从视频帧中提取的特征被连接在一起,形成了环境特征集。这个特征集综合了道路视频中各种视觉信息,如道路的颜色、路面的纹理、停车位的分布等。接下来,服务器使用环境特征集来映射待驶入空间模型中的位置。假设服务器使用了聚类算法,它可以将环境特征空间划分为不同的区域,每个区域对应于不同的特征分布。服务器将每个位置映射到与其最相似的特征分布区域。例如,服务器发现环境特征集中有两个主要的特征分布区域,一个对应于停车位较为密集的区域,另一个对应于道路空旷的区域。对于某辆车辆,服务器将其待驶入空间位置映射到环境特征集中与停车位密集区域最相似的位置。这将帮助服务器为车辆选择最适合的停车位置。
其中,服务器对环境特征集进行分析,以获得一种目标编码表。这个编码表可以将环境特征集中的不同特征组合映射到特定的编码值,从而将特征数据编码为更紧凑和有意义的形式。通过目标编码表,服务器对环境特征集进行特征融合编码。服务器将每个特征组合映射到相应的编码值,从而将环境特征集中的各种信息整合成一个融合编码特征。使用融合编码特征,服务器开始分析待驶入空间模型中的位置坐标。服务器会计算每个位置的融合编码特征与环境特征集的匹配程度。这个匹配程度可以基于距离、相似性度量等指标来衡量。基于计算的匹配程度,服务器为每个位置坐标分配一个权重或得分。这些权重或得分反映了每个位置与环境特征集的匹配程度。服务器会基于这些权重或得分,对待驶入空间模型进行位置映射,将每个位置映射到对应的待驶入空间位置区域。例如,考虑一个停车场,其中有两个主要类型的空间:停车位密集区域和道路空旷区域。环境特征集包括颜色分布、纹理特征和图像轮廓等信息。服务器首先分析环境特征集,创建一个编码表,将颜色、纹理和形状等特征组合映射到不同的编码值。例如,编码值1代表颜色分布对应停车位密集区域,而编码值2对应道路空旷区域。服务器对环境特征集进行特征融合编码。对于某个特定的环境特征组合,服务器将其映射到一个融合编码值,表示特征在环境中的整体含义。服务器分析待驶入空间模型中的位置坐标。例如,服务器计算每个位置的融合编码特征与环境特征集的匹配程度。如果某个位置在环境特征集中对应编码值1,而其融合编码特征与编码值1的匹配程度较高,那么这个位置更适合驶入停车位密集区域。通过计算得到的匹配程度权重,服务器对待驶入空间模型进行位置映射。这将确定每个位置在停车场中的最佳驶入位置区域。
S105、将待驶入空间位置区域以及当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个外部导航模块进行导航指引。
需要说明的是,服务器将待驶入空间位置区域和当前位置信息输入深度强化学习模型,以构建状态表示。这个状态表示是模型理解当前环境和车辆位置的关键。可以是一个包含当前位置、目标位置、环境特征等信息的向量。基于构建的状态表示,服务器将状态参数输入深度强化学习模型的深度神经网络,进行路径动作匹配。模型将学习如何选择最优路径动作,以使车辆能够从当前位置导航到目标位置。这些路径动作包括转向、加速、减速等。服务器会分析模型输出的路径动作信息,以获取动作调整参数。这些参数可以帮助微调路径动作,以更好地适应实际驾驶环境。通过使用动作调整参数,服务器将状态表示和路径动作信息再次输入深度强化学习模型,进行迭代分析。这个迭代过程可以增强模型的性能,使其能够更精确地预测和规划车辆行驶路径。得到目标行驶路线后,服务器将其分割成多个行驶子路线。这些子路线可以是驶入停车位的不同步骤或转向。对每个行驶子路线,服务器会进行导航模块匹配。根据行驶子路线的特点,服务器选择适合的外部导航模块,例如转向指示、交通标志识别等。服务器将控制外部导航模块,以向驾驶员提供导航指引。这可以是声音提示、屏幕显示或HUD(抬头显示)等方式,帮助驾驶员准确地按照规划好的行驶路线导航。例如,假设一个驾驶员想要将车辆停入停车场的一个空闲停车位。当前位置信息通过GPS传感器获取。待驶入空间位置区域是一个停车位密集的区域。服务器首先将当前位置信息和待驶入空间位置区域输入深度强化学习模型,构建状态表示。状态表示包括车辆的当前坐标、目标停车位的坐标和停车场的环境特征。深度强化学习模型根据状态表示,输出路径动作信息,如直行、左转等。这些动作信息会传递给动作调整参数分析步骤。服务器发现,由于停车位密集,车辆需要更多的减速和精确的转向。通过迭代分析,服务器考虑了动作调整参数后,进一步优化了路径动作。服务器将优化后的目标行驶路线分割成多个行驶子路线,每个子路线表示车辆在行驶过程中的一个阶段,如驶入车位、停车等。对于每个行驶子路线,服务器选择合适的外部导航模块,比如转向指示器和停车辅助图像等。例如,在驶入车位的子路线中,服务器启用停车辅助图像,向驾驶员显示车辆和停车位的相对位置,以指导准确的停车。
本发明实施例中,通过目标停车场的每个停车位中安装的物联网数据检测单元进行车位占用情况分析,得到车位占用数据;通过车位占用数据对目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个待停车区域以及多个空闲位置进行待驶入区域建模,得到待驶入空间模型;获取目标车辆的当前位置信息,基于当前位置信息,在预设的时间区间内对目标车辆进行道路视频采集,得到目标车辆的待分析道路视频;对待分析道路视频进行环境特征提取,得到环境特征集,并通过环境特征集对待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;将待驶入空间位置区域以及当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个外部导航模块进行导航指引。通过物联网数据检测单元,系统能够实时监测停车位的占用情况。这使得停车场管理变得更加智能和高效,可以减少找车位的时间和拥堵,提升停车场的整体管理效率。通过车位占用数据的分析和空闲位置的标定,驾驶员可以迅速找到可用的停车位,从而减少寻找停车位的时间,提高停车的便利性,优化停车体验。基于车位占用数据,停车场可以进行更精细化的区域划分,为驾驶员提供更多停车选择,有效减少拥堵和资源浪费。通过对多个待停车区域进行建模,系统可以根据不同的车辆需求和驾驶员偏好,为每辆车生成个性化的待驶入空间模型,提供更符合实际情况的停车建议。基于目标车辆的当前位置信息和环境特征,系统可以使用深度强化学习模型生成智能的行驶路线规划。导航模块的匹配确保驾驶员能够根据不同情况选择最适合的导航方式,提供实时的导航指引,减少迷路风险,以进一步提高基于道路视频识别的无线停车的准确率。
在一具体实施例中,执行步骤S102的过程可以具体包括如下步骤:
(1)通过预置的分布式算法对车位占用数据进行分布式存储,得到多个数据节点以及每个数据节点的存储数据;
(2)对每个数据节点的存储数据进行数据聚合处理,得到聚合数据集;
(3)对聚合数据集进行缺失值填充,得到待分析聚合数据集;
(4)对待分析聚合数据集进行车位状态统计,得到多个空闲位置;
(5)将每个数据节点的存储数据输入预置的卷积神经网络进行停车场布局分析,得到停车场布局信息;
(6)通过多个空闲位置对停车场布局信息进行区域划分,得到多个待停车区域;
(7)对多个待停车区域以及多个空闲位置进行待驶入区域建模,得到待驶入空间模型。
具体的,车位占用数据可以通过分布式算法进行存储,将数据分散存储在多个数据节点上,以提高存储效率和数据访问速度。每个数据节点负责存储特定范围的车位占用信息,形成一个分布式存储系统。这些数据节点可以是物联网设备、服务器或云端资源。对于每个数据节点的存储数据,服务器进行数据聚合处理,将各节点的数据合并成一个统一的聚合数据集。这有助于整体数据分析和模型建立。聚合涉及合并、去重、处理异常数据等步骤。在聚合数据集中,存在一些缺失值,即没有数据的车位或时间段。服务器进行缺失值填充,以保证数据的完整性和准确性。填充可以基于历史数据、相邻车位数据等进行预测。在填充完整的数据集上,服务器进行车位状态统计,分析每个车位的占用情况。这可以得到多个空闲位置,即未被占用的车位。将每个数据节点的存储数据输入预置的卷积神经网络,可以进行停车场布局分析。这个分析可以识别停车位的分布、布局和特点,帮助理解停车场内的车位分布情况。基于卷积神经网络的分析结果,服务器通过多个空闲位置进行停车场布局的区域划分。这将得到多个待停车区域,每个区域内包含一组相邻的空闲停车位。在得到待停车区域后,服务器对每个区域进行建模,以生成待驶入空间模型。模型可以考虑每个区域的位置、大小、形状等因素,帮助车辆规划最佳驶入策略。例如,假设有一个停车场,被分为多个行列和多个排。每个行列和排都有若干个停车位。数据分布在多个数据节点上,每个节点存储不同行列和排的车位占用情况。服务器首先通过分布式算法,将车位占用数据存储在不同数据节点上。例如,节点A存储第一行的车位信息,节点B存储第二行的车位信息。对于每个数据节点的存储数据,服务器进行数据聚合处理,合并节点A和B的数据,形成一个统一的聚合数据集。在聚合数据集中,服务器进行缺失值填充,预测未记录的车位占用状态。例如,某时刻某个位置的数据丢失,服务器基于相邻时刻的数据进行填充。随后,服务器对聚合数据集进行车位状态统计,得到多个空闲位置,即未被占用的停车位。这些空闲位置的信息输入预置的卷积神经网络,进行停车场布局分析。模型识别出停车位的分布情况,找到车位排列的规律。基于分析结果,服务器将停车场划分为多个待停车区域,每个区域包含相邻的一组空闲停车位。最后,对于每个待停车区域,服务器建立模型,考虑区域的尺寸、形状、车位分布等,以生成待驶入空间模型,帮助驾驶员选择最佳停车位置。
在一具体实施例中,如图2所示,执行对多个待停车区域以及多个空闲位置进行待驶入区域建模,得到待驶入空间模型步骤的过程可以具体包括如下步骤:
S201、对多个待停车区域进行区域边界提取,得到每个待停车区域的区域边界信息;
S202、基于多个空闲位置以及每个待停车区域的区域边界信息,对每个待停车区域进行空闲位置数量计算,得到每个待停车区域的空闲位置数量;
S203、通过每个待停车区域的空闲位置数量,对多个待停车区域进行区域空间结构提取,得到每个待停车区域的区域空间结构;
S204、对每个待停车区域的区域空间结构进行高维特征转换,得到高维特征集合;
S205、通过高维特征集合进行待驶入区域建模,得到待驶入空间模型。
需要说明的是,服务器会对多个待停车区域进行区域边界提取。这可以通过图像处理技术,如边缘检测、轮廓识别等方法,从车位布局图像中提取出每个待停车区域的边界信息,形成一个区域边界的表示。基于空闲位置的信息和每个待停车区域的区域边界信息,服务器进行空闲位置数量计算。对于每个待停车区域,服务器在边界内部检测空闲位置,并统计其数量。这样可以得到每个待停车区域的空闲位置数量。利用空闲位置数量信息,服务器进一步对每个待停车区域进行区域空间结构的提取。服务器会识别区域内空闲位置的分布情况、密集度以及空间布局。这些信息可以帮助了解每个待停车区域的空间特点。在得到区域空间结构后,服务器将其转换为高维特征集合。这个过程涉及将区域空间结构映射到高维空间中,以便更好地捕捉区域之间的差异和相似性。基于高维特征集合,服务器开始进行待驶入区域的建模,以生成待驶入空间模型。模型可以是机器学习模型,如支持向量机、神经网络等,用于将高维特征与驶入空间的适宜性进行建模。例如,考虑一个停车场,分为两个待停车区域:A区和B区。服务器分析这两个区域以生成待驶入空间模型。服务器对A区和B区进行区域边界提取。这可以通过图像处理技术,从停车场布局图像中分割出A区和B区的边界信息。服务器计算A区和B区的空闲位置数量。假设A区内有10个空闲位置,而B区有15个空闲位置。基于空闲位置数量,服务器进一步提取A区和B区的区域空间结构。服务器发现A区的空闲位置更密集,而B区的空闲位置相对分散。服务器将区域空间结构映射到高维特征空间中。例如,A区的特征向量强调空闲位置的密集程度,而B区的特征向量突出位置的分布均匀性。基于高维特征集合,服务器使用机器学习模型进行待驶入区域的建模。模型将学习如何根据特征预测驶入的适宜性。例如,模型可以预测在A区驶入的成功概率较高,因为空闲位置密集。
在一具体实施例中,如图3所示,执行步骤S103的过程可以具体包括如下步骤:
S301、通过目标车辆的位置传感器进行位置信息采集,得到目标车辆的当前位置信息;
S302、对目标车辆进行物联网节点匹配,得到目标车辆对应的多个物联网节点;
S303、通过当前位置信息对多个物联网节点进行节点筛选,得到多个目标物联网节点;
S304、通过多个目标物联网节点进行图像采集终端匹配,得到多个图像采集终端;
S305、分别对每个图像采集终端进行工作参数分析,得到每个图像采集终端的工作参数集;
S306、基于每个图像采集终端的工作参数集,控制每个图像采集终端在预设的时间区间内对目标车辆进行道路视频采集,得到目标车辆的待分析道路视频。
需要说明的是,服务器通过目标车辆上的位置传感器,如GPS或惯性传感器,实时获取车辆的当前位置信息。这些传感器能够提供车辆的经纬度坐标,用于定位车辆在地图上的位置。基于目标车辆的位置信息,服务器进行物联网节点匹配,找出与目标车辆附近的物联网节点。这些节点是安装在停车场内的传感器设备,用于采集车位占用数据、环境信息等。通过当前位置信息,服务器筛选出与目标车辆当前位置最为接近的物联网节点。这些节点将被用来支持图像采集终端的位置匹配。对于每个选定的物联网节点,服务器匹配适合的图像采集终端,这些终端可以是摄像头、无人机或其他设备,用于采集道路视频数据。这个匹配过程可以考虑终端的覆盖范围、角度等因素。针对每个选定的图像采集终端,服务器进行工作参数分析。这涉及到终端的分辨率、帧率、视野范围、环境适应性等工作参数,这些参数将在道路视频采集过程中起到关键作用。基于工作参数集,服务器控制每个图像采集终端在预设的时间区间内对目标车辆进行道路视频采集。服务器会根据车辆的位置、速度、方向等信息,调整终端的采集策略,确保采集到有价值的视频数据。例如,假设一名司机想在停车场内找到空闲的停车位。他启动车辆后,车辆的GPS传感器即开始采集当前位置信息。服务器根据该位置信息,匹配附近的物联网节点。其中,与目标车辆距离最近的节点为节点A,位于停车场入口附近。节点A的位置和目标车辆的位置非常接近,因此服务器选择节点A作为图像采集的基础。服务器对节点A附近的图像采集终端进行匹配,选择了一个位于入口处的摄像头,这个摄像头具有广阔的视野范围,适合捕捉车辆进入停车场的情况。服务器进一步分析了摄像头的工作参数集,确定了适当的分辨率和帧率,以及采集的时间区间。随后,服务器控制该摄像头在预设的时间区间内对目标车辆进行道路视频采集。这段时间内,摄像头将捕捉到目标车辆进入停车场、行驶路径等相关情况的视频。
在一具体实施例中,如图4所示,执行步骤S104的过程可以具体包括如下步骤:
S401、对待分析道路视频进行视频分割,得到多个道路视频帧;
S402、分别对每个道路视频帧进行图像特征提取,得到每个道路视频帧的图像特征集,其中,图像特征集包括颜色分布数据、纹理特征以及图像轮廓数据;
S403、对道路视频帧的图像特征集进行特征连接处理,得到环境特征集;
S404、通过环境特征集对待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域。
需要说明的是,待分析的道路视频会被分割成多个连续的道路视频帧。每个视频帧代表了一个瞬间的道路场景,包含了停车位、车辆、道路标志等元素。对每个道路视频帧进行图像特征提取,以捕获每一帧的视觉信息。特征提取可以包括以下几种类型:颜色分布数据:提取每个视频帧中不同颜色通道的像素分布。这可以帮助判断道路和停车位的表面颜色,以及车辆的颜色;纹理特征:分析图像中的纹理,例如道路的纹理、停车位的条纹等。这可以用于识别道路和停车位的类型;图像轮廓数据:提取视频帧中的物体轮廓信息。这有助于识别车辆和停车位的形状;特征连接处理:将从每个视频帧中提取的图像特征集连接起来,形成一个整体的环境特征集。这样的特征集将综合考虑视频中各个瞬间的视觉信息。利用环境特征集,服务器开始将待驶入空间模型映射到实际的待驶入空间位置区域。这个映射可以采用机器学习模型,将图像特征与空间适宜性关联起来。例如,假设服务器正在处理一个道路视频,目标是为一辆车提供最适合的停车区域建议。服务器从道路视频中提取了一系列视频帧。其中一帧显示一个停车场,有多个车辆和空闲停车位。对于每个视频帧,服务器执行图像特征提取。在该帧中,颜色分布数据显示停车位区域的颜色相对均匀,车辆颜色多样。纹理特征分析显示停车位上有条纹,而道路上的纹理较为光滑。图像轮廓数据识别出每个车辆和停车位的外形。服务器将从所有帧中提取的特征集连接起来,形成一个综合的环境特征集。这个特征集考虑了视频中各种场景,包括停车位、车辆、道路标志等。服务器使用这个环境特征集将待驶入空间模型映射到实际的位置区域。通过学习特征与停车适宜性之间的关系,模型可以预测哪些区域最适合驶入停车。例如,如果模型学会了将均匀的颜色分布与空闲停车位关联起来,它会建议驶入颜色均匀的区域。
在一具体实施例中,执行步骤S404的过程可以具体包括如下步骤:
(1)对环境特征集进行编码表数据分析,得到环境特征集对应的目标编码表;
(2)通过目标编码表对环境特征集进行特征融合编码,得到融合编码特征;
(3)通过融合编码特征对待驶入空间模型进行相关位置坐标分析,生成对应的相关位置坐标集合;
(4)通过相关位置坐标集合对待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域。
需要说明的是,环境特征集包含了从多个视频帧中提取的图像特征,如颜色分布、纹理特征和图像轮廓。服务器会对环境特征集进行分析,识别出其中的关键特征模式。通过编码表数据分析,将这些特征模式映射到一个目标编码表中。这个编码表可以视为一个映射关系,将特征与停车适宜性的程度关联起来。服务器将环境特征集与目标编码表结合,进行特征融合编码。服务器会根据编码表中的映射关系,为每个环境特征赋予一个特定的编码值。这个融合编码特征将保留了环境特征的信息,同时将其映射到停车适宜性的语境中。利用融合编码特征,服务器开始分析环境特征与位置坐标之间的关系。这可以通过机器学习技术,如回归分析或分类算法,来完成。服务器会预测哪些位置坐标与具有特定融合编码特征的环境情况相匹配。这些位置坐标将被认为是在停车过程中最适合的位置。通过分析得到的相关位置坐标集合,服务器开始将这些位置映射到待驶入空间模型中。这个映射的目的是确定哪些位置在停车时最具有潜在价值,从而提供最佳的停车建议。例如,假设驾驶员正在使用基于道路视频识别的无线停车系统,希望找到一个适合的停车位。服务器通过分析环境特征集,发现颜色分布与停车适宜性之间存在关联。具体而言,颜色均匀分布的区域往往更有空闲停车位。服务器根据这一发现,生成了一个目标编码表,将均匀颜色分布映射到高停车适宜性。接下来,服务器将环境特征集与目标编码表结合,进行特征融合编码。在特定视频帧中,服务器会将颜色分布特征与目标编码表映射,获得一个融合编码值,表示停车适宜性。服务器使用机器学习模型分析这些融合编码特征,预测与每个编码值对应的相关位置坐标。模型会发现,高适宜性编码值与某些区域的位置坐标有很强的关联,这意味着这些区域在停车时最有有空闲停车位。最后,服务器将预测的相关位置坐标映射到待驶入空间模型,确定哪些区域在当前情况下最适合停车。这些区域在停车场的某个侧边,或者在交通流量相对较少的地方。
在一具体实施例中,执行步骤S105的过程可以具体包括如下步骤:
(1)将待驶入空间位置区域以及当前位置信息输入深度强化学习模型进行状态表示构建,得到目标状态表示参数;
(2)将目标状态表示参数输入深度强化学习模型的深度神经网络进行路径动作匹配,得到路径动作信息;
(3)对路径动作信息进行动作调整参数分析,得到动作调整参数集;
(4)通过动作调整参数集,将目标状态表示参数以及路径动作信息输入深度强化学习模型进行迭代分析,得到目标行驶路线;
(5)对目标行驶路线进行路线分割,得到多个行驶子路线;
(6)分别对每个行驶子路线进行导航模块匹配,得到多个外部导航模块,以及控制多个外部导航模块进行导航指引。
具体的,服务器将待驶入空间位置区域和当前位置信息输入深度强化学习模型,以构建目标状态表示参数。这个状态表示将综合考虑车辆当前位置和周围的空间环境。目标状态表示参数被输入深度强化学习模型的深度神经网络中,以进行路径动作匹配。模型将分析当前状态,包括车辆位置和环境信息,并预测在这种状态下最合适的行动(动作),即路径动作信息。路径动作信息被提取后,服务器对其进行动作调整参数分析。这涉及到调整路径动作以适应特定情况,如避免障碍物、选择更快的道路等。这些调整参数可以根据实际驾驶情况和环境来确定。使用动作调整参数,服务器将目标状态表示参数和路径动作信息再次输入深度强化学习模型中,进行迭代分析。模型会综合考虑动作调整后的信息,进一步优化预测的路径动作。在获得最终的目标行驶路线后,服务器对其进行路线分割。这意味着将整个行驶过程划分为多个子路线,每个子路线对应于特定的道路段或停车位。对每个行驶子路线,服务器进行导航模块匹配。这意味着为每个子路线选择适当的导航模块,以指导驾驶员完成这一段路程。例如,假设驾驶员想要停车,车辆的当前位置信息显示车辆位于停车场入口处,目标是找到一个空闲停车位进行停车。服务器根据车辆位置和环境信息,构建了目标状态表示参数。深度强化学习模型将这个状态表示参数输入其深度神经网络,分析的路径动作。模型预测最佳路径动作,例如向左转、直行等,以找到最适合的停车位。服务器将路径动作信息进行动作调整参数分析。如果模型预测的路径动作与障碍物相冲突,动作调整参数会将其修正为避开障碍物的行动。通过迭代分析,模型考虑了动作调整参数后的路径动作,生成了最终的目标行驶路线。这个路线包括转弯、直行等一系列动作,以便将车辆引导到合适的停车位。路线分割阶段,服务器将整个行驶过程划分为进入停车场、选择停车区域、驶入空闲停车位等子路线。对每个子路线,服务器会选择适当的导航模块进行匹配。例如,选择进入停车场后的子路线时,服务器会触发语音导航,指导驾驶员进入停车场。
通过以上步骤,服务器能够为驾驶员提供详细的导航指引,帮助其完成从入口到停车位的整个行驶过程。
上面对本发明实施例中基于道路视频识别的无线停车方法进行了描述,下面对本发明实施例中基于道路视频识别的无线停车装置进行描述,请参阅图5,本发明实施例中基于道路视频识别的无线停车装置一个实施例包括:
分析模块501,用于通过目标停车场的每个停车位中安装的物联网数据检测单元进行车位占用情况分析,得到车位占用数据;
标定模块502,用于通过所述车位占用数据对所述目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型;
采集模块503,用于获取目标车辆的当前位置信息,基于所述当前位置信息,在预设的时间区间内对所述目标车辆进行道路视频采集,得到所述目标车辆的待分析道路视频;
映射模块504,用于对所述待分析道路视频进行环境特征提取,得到环境特征集,并通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;
规划模块505,用于将所述待驶入空间位置区域以及所述当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对所述目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个所述外部导航模块进行导航指引。
通过上述各个组成部分的协同合作,通过目标停车场的每个停车位中安装的物联网数据检测单元进行车位占用情况分析,得到车位占用数据;通过车位占用数据对目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个待停车区域以及多个空闲位置进行待驶入区域建模,得到待驶入空间模型;获取目标车辆的当前位置信息,基于当前位置信息,在预设的时间区间内对目标车辆进行道路视频采集,得到目标车辆的待分析道路视频;对待分析道路视频进行环境特征提取,得到环境特征集,并通过环境特征集对待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;将待驶入空间位置区域以及当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个外部导航模块进行导航指引。通过物联网数据检测单元,系统能够实时监测停车位的占用情况。这使得停车场管理变得更加智能和高效,可以减少找车位的时间和拥堵,提升停车场的整体管理效率。通过车位占用数据的分析和空闲位置的标定,驾驶员可以迅速找到可用的停车位,从而减少寻找停车位的时间,提高停车的便利性,优化停车体验。基于车位占用数据,停车场可以进行更精细化的区域划分,为驾驶员提供更多停车选择,有效减少拥堵和资源浪费。通过对多个待停车区域进行建模,系统可以根据不同的车辆需求和驾驶员偏好,为每辆车生成个性化的待驶入空间模型,提供更符合实际情况的停车建议。基于目标车辆的当前位置信息和环境特征,系统可以使用深度强化学习模型生成智能的行驶路线规划。导航模块的匹配确保驾驶员能够根据不同情况选择最适合的导航方式,提供实时的导航指引,减少迷路风险,以进一步提高基于道路视频识别的无线停车的准确率。
上面图5从模块化功能实体的角度对本发明实施例中的基于道路视频识别的无线停车装置进行详细描述,下面从硬件处理的角度对本发明实施例中基于道路视频识别的无线停车设备进行详细描述。
图6是本发明实施例提供的一种基于道路视频识别的无线停车设备的结构示意图,该基于道路视频识别的无线停车设备600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(centralprocessingunits,CPU)610(例如,一个或一个以上处理器)和存储器620,一个或一个以上存储应用程序633或数据632的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器620和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对基于道路视频识别的无线停车设备600中的一系列指令操作。更进一步地,处理器610可以设置为与存储介质630通信,在基于道路视频识别的无线停车设备600上执行存储介质630中的一系列指令操作。
基于道路视频识别的无线停车设备600还可以包括一个或一个以上电源640,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口660,和/或,一个或一个以上操作系统631,例如WindowsServe,MacOSX,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图6示出的基于道路视频识别的无线停车设备结构并不构成对基于道路视频识别的无线停车设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种基于道路视频识别的无线停车设备,所述基于道路视频识别的无线停车设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述基于道路视频识别的无线停车方法的步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述基于道路视频识别的无线停车方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或通过时,可以存储在一个计算机可读取存储介质中。基于的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-onlymemory,ROM)、随机存取存储器(randomacceSmemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (4)

1.一种基于道路视频识别的无线停车方法,其特征在于,所述基于道路视频识别的无线停车方法包括:
通过目标停车场的每个停车位中安装的物联网数据检测单元进行车位占用情况分析,得到车位占用数据;
通过所述车位占用数据对所述目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型;具体包括:通过预置的分布式算法对所述车位占用数据进行分布式存储,得到多个数据节点以及每个数据节点的存储数据;对每个所述数据节点的存储数据进行数据聚合处理,得到聚合数据集;对所述聚合数据集进行缺失值填充,得到待分析聚合数据集;对所述待分析聚合数据集进行车位状态统计,得到多个所述空闲位置;将每个所述数据节点的存储数据输入预置的卷积神经网络进行停车场布局分析,得到停车场布局信息;通过多个所述空闲位置对所述停车场布局信息进行区域划分,得到多个所述待停车区域;对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型;其中,对多个所述待停车区域进行区域边界提取,得到每个所述待停车区域的区域边界信息;基于多个所述空闲位置以及每个所述待停车区域的区域边界信息,对每个所述待停车区域进行空闲位置数量计算,得到每个所述待停车区域的空闲位置数量;通过每个所述待停车区域的空闲位置数量,对多个所述待停车区域进行区域空间结构提取,得到每个所述待停车区域的区域空间结构;对每个所述待停车区域的区域空间结构进行高维特征转换,得到高维特征集合;通过所述高维特征集合进行待驶入区域建模,得到所述待驶入空间模型;
获取目标车辆的当前位置信息,基于所述当前位置信息,在预设的时间区间内对所述目标车辆进行道路视频采集,得到所述目标车辆的待分析道路视频;具体包括:通过所述目标车辆的位置传感器进行位置信息采集,得到所述目标车辆的当前位置信息;对所述目标车辆进行物联网节点匹配,得到所述目标车辆对应的多个物联网节点;通过所述当前位置信息对多个所述物联网节点进行节点筛选,得到多个目标物联网节点;通过多个所述目标物联网节点进行图像采集终端匹配,得到多个图像采集终端;分别对每个所述图像采集终端进行工作参数分析,得到每个所述图像采集终端的工作参数集;基于每个所述图像采集终端的工作参数集,控制每个所述图像采集终端在预设的时间区间内对所述目标车辆进行道路视频采集,得到所述目标车辆的待分析道路视频;
对所述待分析道路视频进行环境特征提取,得到环境特征集,并通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;具体包括:对所述待分析道路视频进行视频分割,得到多个道路视频帧;分别对每个所述道路视频帧进行图像特征提取,得到每个所述道路视频帧的图像特征集,其中,所述图像特征集包括颜色分布数据、纹理特征以及图像轮廓数据;对所述道路视频帧的图像特征集进行特征连接处理,得到所述环境特征集;通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;其中,对所述环境特征集进行编码表数据分析,得到所述环境特征集对应的目标编码表;通过所述目标编码表对所述环境特征集进行特征融合编码,得到融合编码特征;通过所述融合编码特征对所述待驶入空间模型进行相关位置坐标分析,生成对应的相关位置坐标集合;通过所述相关位置坐标集合对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;
将所述待驶入空间位置区域以及所述当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对所述目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个所述外部导航模块进行导航指引;具体包括:将所述待驶入空间位置区域以及所述当前位置信息输入所述深度强化学习模型进行状态表示构建,得到目标状态表示参数;将所述目标状态表示参数输入所述深度强化学习模型的深度神经网络进行路径动作匹配,得到路径动作信息;对所述路径动作信息进行动作调整参数分析,得到动作调整参数集;通过所述动作调整参数集,将所述目标状态表示参数以及所述路径动作信息输入所述深度强化学习模型进行迭代分析,得到目标行驶路线;对所述目标行驶路线进行路线分割,得到多个行驶子路线;分别对每个所述行驶子路线进行导航模块匹配,得到多个外部导航模块,以及控制多个所述外部导航模块进行导航指引。
2.一种基于道路视频识别的无线停车装置,其特征在于,所述基于道路视频识别的无线停车装置包括:
分析模块,用于通过目标停车场的每个停车位中安装的物联网数据检测单元进行车位占用情况分析,得到车位占用数据;
标定模块,用于通过所述车位占用数据对所述目标停车场进行区域划分以及空闲位置标定,得到多个待停车区域以及多个空闲位置,对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型;具体包括:通过预置的分布式算法对所述车位占用数据进行分布式存储,得到多个数据节点以及每个数据节点的存储数据;对每个所述数据节点的存储数据进行数据聚合处理,得到聚合数据集;对所述聚合数据集进行缺失值填充,得到待分析聚合数据集;对所述待分析聚合数据集进行车位状态统计,得到多个所述空闲位置;将每个所述数据节点的存储数据输入预置的卷积神经网络进行停车场布局分析,得到停车场布局信息;通过多个所述空闲位置对所述停车场布局信息进行区域划分,得到多个所述待停车区域;对多个所述待停车区域以及多个所述空闲位置进行待驶入区域建模,得到待驶入空间模型;其中,对多个所述待停车区域进行区域边界提取,得到每个所述待停车区域的区域边界信息;基于多个所述空闲位置以及每个所述待停车区域的区域边界信息,对每个所述待停车区域进行空闲位置数量计算,得到每个所述待停车区域的空闲位置数量;通过每个所述待停车区域的空闲位置数量,对多个所述待停车区域进行区域空间结构提取,得到每个所述待停车区域的区域空间结构;对每个所述待停车区域的区域空间结构进行高维特征转换,得到高维特征集合;通过所述高维特征集合进行待驶入区域建模,得到所述待驶入空间模型;
采集模块,用于获取目标车辆的当前位置信息,基于所述当前位置信息,在预设的时间区间内对所述目标车辆进行道路视频采集,得到所述目标车辆的待分析道路视频;具体包括:通过所述目标车辆的位置传感器进行位置信息采集,得到所述目标车辆的当前位置信息;对所述目标车辆进行物联网节点匹配,得到所述目标车辆对应的多个物联网节点;通过所述当前位置信息对多个所述物联网节点进行节点筛选,得到多个目标物联网节点;通过多个所述目标物联网节点进行图像采集终端匹配,得到多个图像采集终端;分别对每个所述图像采集终端进行工作参数分析,得到每个所述图像采集终端的工作参数集;基于每个所述图像采集终端的工作参数集,控制每个所述图像采集终端在预设的时间区间内对所述目标车辆进行道路视频采集,得到所述目标车辆的待分析道路视频;
映射模块,用于对所述待分析道路视频进行环境特征提取,得到环境特征集,并通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;具体包括:对所述待分析道路视频进行视频分割,得到多个道路视频帧;分别对每个所述道路视频帧进行图像特征提取,得到每个所述道路视频帧的图像特征集,其中,所述图像特征集包括颜色分布数据、纹理特征以及图像轮廓数据;对所述道路视频帧的图像特征集进行特征连接处理,得到所述环境特征集;通过所述环境特征集对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;其中,对所述环境特征集进行编码表数据分析,得到所述环境特征集对应的目标编码表;通过所述目标编码表对所述环境特征集进行特征融合编码,得到融合编码特征;通过所述融合编码特征对所述待驶入空间模型进行相关位置坐标分析,生成对应的相关位置坐标集合;通过所述相关位置坐标集合对所述待驶入空间模型进行待驶入空间位置映射,得到对应的待驶入空间位置区域;
规划模块,用于将所述待驶入空间位置区域以及所述当前位置信息输入预置的深度强化学习模型进行行驶路线规划,得到目标行驶路线,并对所述目标行驶路线进行导航模块匹配,得到多个外部导航模块,以及控制多个所述外部导航模块进行导航指引;具体包括:将所述待驶入空间位置区域以及所述当前位置信息输入所述深度强化学习模型进行状态表示构建,得到目标状态表示参数;将所述目标状态表示参数输入所述深度强化学习模型的深度神经网络进行路径动作匹配,得到路径动作信息;对所述路径动作信息进行动作调整参数分析,得到动作调整参数集;通过所述动作调整参数集,将所述目标状态表示参数以及所述路径动作信息输入所述深度强化学习模型进行迭代分析,得到目标行驶路线;对所述目标行驶路线进行路线分割,得到多个行驶子路线;分别对每个所述行驶子路线进行导航模块匹配,得到多个外部导航模块,以及控制多个所述外部导航模块进行导航指引。
3.一种基于道路视频识别的无线停车设备,其特征在于,所述基于道路视频识别的无线停车设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于道路视频识别的无线停车设备执行如权利要求1所述的基于道路视频识别的无线停车方法。
4.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1所述的基于道路视频识别的无线停车方法。
CN202311345738.7A 2023-10-18 2023-10-18 基于道路视频识别的无线停车方法及相关装置 Active CN117095338B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311345738.7A CN117095338B (zh) 2023-10-18 2023-10-18 基于道路视频识别的无线停车方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311345738.7A CN117095338B (zh) 2023-10-18 2023-10-18 基于道路视频识别的无线停车方法及相关装置

Publications (2)

Publication Number Publication Date
CN117095338A CN117095338A (zh) 2023-11-21
CN117095338B true CN117095338B (zh) 2024-02-06

Family

ID=88772071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311345738.7A Active CN117095338B (zh) 2023-10-18 2023-10-18 基于道路视频识别的无线停车方法及相关装置

Country Status (1)

Country Link
CN (1) CN117095338B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564807A (zh) * 2018-05-02 2018-09-21 昆明理工大学 一种基于视觉识别的停车场车位实时引导嵌入式装置
CN113012462A (zh) * 2019-12-19 2021-06-22 杭州海康机器人技术有限公司 一种动态车位规划和车辆停放方法、装置及自动停车系统
CN114255608A (zh) * 2020-09-19 2022-03-29 华为技术有限公司 一种停车控制方法及相关设备
CN116486641A (zh) * 2023-02-21 2023-07-25 深圳市前海铼停科技有限公司 一种智慧城市停车系统
WO2023142435A1 (zh) * 2022-01-26 2023-08-03 中国银联股份有限公司 泊车控制方法、装置、设备及计算机可读存储介质
WO2023173678A1 (zh) * 2022-03-14 2023-09-21 金龙联合汽车工业(苏州)有限公司 基于车联网的园区自动驾驶车辆的车位分配及停车系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564807A (zh) * 2018-05-02 2018-09-21 昆明理工大学 一种基于视觉识别的停车场车位实时引导嵌入式装置
CN113012462A (zh) * 2019-12-19 2021-06-22 杭州海康机器人技术有限公司 一种动态车位规划和车辆停放方法、装置及自动停车系统
CN114255608A (zh) * 2020-09-19 2022-03-29 华为技术有限公司 一种停车控制方法及相关设备
WO2023142435A1 (zh) * 2022-01-26 2023-08-03 中国银联股份有限公司 泊车控制方法、装置、设备及计算机可读存储介质
WO2023173678A1 (zh) * 2022-03-14 2023-09-21 金龙联合汽车工业(苏州)有限公司 基于车联网的园区自动驾驶车辆的车位分配及停车系统
CN116486641A (zh) * 2023-02-21 2023-07-25 深圳市前海铼停科技有限公司 一种智慧城市停车系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于智能手机的停车导航系统设计;王琪;王娇;刘奎;;物联网技术(第04期);99-101 *
迁移学习场景下的实时停车位置检测;邢家源;张军;薛晨兴;雷雨婷;孙彦;;天津职业技术师范大学学报(第04期);35-40 *

Also Published As

Publication number Publication date
CN117095338A (zh) 2023-11-21

Similar Documents

Publication Publication Date Title
CN109520744B (zh) 自动驾驶车辆的驾驶性能测试方法和装置
JP6591842B2 (ja) 意味付け交通空間についての適合型射線ベースのシーン分析を行うための方法及びシステム、並びにそのようなシステムを備える車両
US10346888B2 (en) Systems and methods to obtain passenger feedback in response to autonomous vehicle driving events
CN110562258B (zh) 一种车辆自动换道决策的方法、车载设备和存储介质
JP6800575B2 (ja) 自己の乗り物のドライバを支援する方法およびシステム
US11181918B2 (en) Moving traffic obstacle detection and avoidance
CN108389421B (zh) 基于图像再识别的停车场精确诱导系统及方法
CN110470311A (zh) 一种地图生成方法、装置及计算机存储介质
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
US12012102B2 (en) Method for determining a lane change indication of a vehicle
US20230048304A1 (en) Environmentally aware prediction of human behaviors
CN104875740B (zh) 用于管理跟随空间的方法、主车辆以及跟随空间管理单元
KR20230012953A (ko) 운전 가능 표면 주석 달기를 위한 머신 러닝 기반 프레임워크
JP2018195237A (ja) 画像処理システム、画像処理方法、情報処理装置及び記録媒体
CN116817957B (zh) 基于机器视觉的无人车行驶路径规划方法及系统
CN113178074A (zh) 应用于车辆的交通流机器学习建模系统及其方法
US20210405641A1 (en) Detecting positioning of a sensor system associated with a vehicle
US11875548B2 (en) System and method for region of interest window generation for attention based perception
CN117095338B (zh) 基于道路视频识别的无线停车方法及相关装置
CN110696828B (zh) 前向目标选择方法、装置及车载设备
CN115203536A (zh) 基于驾驶场景推荐智能驾驶参数的方法及装置
CN113327453A (zh) 一种基于高点视频分析的停车场空位引导系统
CN117591847B (zh) 基于车况数据的模型指向评测方法和装置
KR102484139B1 (ko) 인공지능모델을 이용하여 이륜차의 운전 패턴 정보를 기초로 이륜차 보험료를 산출하는 방법, 장치 및 시스템
CN113850929B (zh) 一种标注数据流处理的展示方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant