CN117649651A - 一种基于深度学习的车位实时补正的方法 - Google Patents
一种基于深度学习的车位实时补正的方法 Download PDFInfo
- Publication number
- CN117649651A CN117649651A CN202311583901.3A CN202311583901A CN117649651A CN 117649651 A CN117649651 A CN 117649651A CN 202311583901 A CN202311583901 A CN 202311583901A CN 117649651 A CN117649651 A CN 117649651A
- Authority
- CN
- China
- Prior art keywords
- parking space
- coordinate information
- vehicle
- parking
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013135 deep learning Methods 0.000 title claims abstract description 34
- 238000012937 correction Methods 0.000 title claims abstract description 24
- 230000008569 process Effects 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 16
- 238000012805 post-processing Methods 0.000 claims description 12
- 238000003860 storage Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 9
- 238000004140 cleaning Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于深度学习的车位实时补正的方法,包括:步骤1,构建并训练基于深度学习的车位识别模型,在车辆进入车位之前,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的初始坐标信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的修正坐标信息;步骤2,基于初始坐标信息生成控制车进入车位的策略,基于修正坐标信息实时调整控制车进入车位的策略,解决泊车搜库采用一次性搜索导致泊车姿态有一定偏差的问题,使得车辆泊入的更加准确。
Description
技术领域
本发明涉及自动泊车技术领域,尤其涉及一种基于深度学习的车位实时补正的方法。
背景技术
自动泊车是待泊车车辆使用车载传感器采集车辆周边信息,将采集的信息(车位信息+障碍物信息)传给感知模块进行分析获取目标点,规划模块再根据感知模块分析的目标点计算泊车轨迹,最后通过控制模块控制车辆泊入车位中。
现有技术中的泊车搜库基于一次性搜索原则,通过感知模块搜索输出车位的坐标和类别,开启泊车过程中不会基于实时检测的车位去实时校正融合及控制。但是实际情况中由于环视鱼眼相机的畸变和停车场复杂的环境(光线,障碍物遮挡等)导致车位检测不全,距离自车越远,输出的精度越低,对最终的泊车效果会造成影响,导致泊车姿态有一定偏差。
发明内容
本发明针对现有技术中存在的技术问题,提供一种基于深度学习的车位实时补正的方法,解决泊车搜库采用一次性搜索导致泊车姿态有一定偏差的问题。
根据本发明的第一方面,提供了一种基于深度学习的车位实时补正的方法,包括:
步骤1,构建并训练基于深度学习的车位识别模型,在车辆进入车位之前,将相机采集的图像输入训练完成的所述车位识别模型后得到目标车位的初始坐标信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的所述车位识别模型后得到所述目标车位的修正坐标信息;
步骤2,基于所述初始坐标信息生成控制车进入车位的策略,基于所述修正坐标信息实时调整控制车进入车位的策略。
在上述技术方案的基础上,本发明还可以作出如下改进。
可选的,所述步骤1还包括:所述车位识别模型基于设定时长周期性的输出车位的修正坐标信息。
可选的,所述步骤1还包括:
所述车位识别模型输出修正坐标信息后,判断与上一次输出的初始坐标信息或修正坐标信息中四个顶点的坐标的差值,有任一差值超过设定阈值时,基于此次输出的所述修正坐标信息执行步骤2中调整控制车进入车位的策略的操作;否则不执行步骤2中调整控制车进入车位的策略的操作。
可选的,所述步骤1包括:
将鱼眼摄像头拍摄的鱼眼图去畸变转为IPM图,并对IPM图进行数据清洗;
对所述IPM图中的车位进行标注后,输入所述车位识别模型进行训练;
基于训练完成的所述车位识别模型对待识别图像进行识别;
对所述车位识别模型输出的车位识别结果进行后处理后得到输出车位坐标信息。
可选的,所述步骤1中构建的所述车位识别模型为将全连接层替换为全卷积层的目标检测网络模型,所述目标检测网络模型为包含卷积层和池化层的全卷积网络。
可选的,所述目标检测网络模型进行训练和使用的过程中,对所述目标检测网络模型的每层的输入进行归一化处理。
可选的,所述步骤2中基于所述所述初始坐标信息或修正坐标信息生成或调整车进入车位的策略包括:生成或调整车速度和/或转向角。
根据本发明的第二方面,提供一种基于深度学习的车位实时补正的系统,包括:车位识别模型、后处理模型和融合模块;
所述车位识别模型,用于在车辆进入车位之前,将相机采集的图像输入训练完成的所述车位识别模型后输出初始目标车位信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的所述车位识别模型后输出修正目标车位信息;
所述后处理模型,用于对所述车位识别模型输出的所述初始目标车位信息和所述修正目标车位信息进行后处理,得到所述目标车位的初始坐标信息和修正坐标信息;
所述融合模块,用于基于所述初始坐标信息生成控制车进入车位的策略,基于所述修正坐标信息实时调整控制车进入车位的策略。
根据本发明的第三方面,提供了一种电子设备,包括存储器、处理器,所述处理器用于执行存储器中存储的计算机管理类程序时实现基于深度学习的车位实时补正的方法的步骤。
根据本发明的第四方面,提供了一种计算机可读存储介质,其上存储有计算机管理类程序,所述计算机管理类程序被处理器执行时实现基于深度学习的车位实时补正的方法的步骤。
本发明提供的一种基于深度学习的车位实时补正的方法、系统、电子设备及存储介质,在泊车入库的过程实时的检测车位信息并输出给融合系统,使泊车完成后车辆姿态达到标准。在一次性搜索基础上加入实时检测车位功能,能够在整个泊车过程中,提供高度精确的车位数据。解决泊车搜库过程中由于相机畸变和模型推理的误差累计导致泊车姿态不佳的问题。解决距离较远时,灰暗场景,磨损车位车位线不清晰时,车位检测边缘误检的问题,使得车辆泊入的更加准确。
附图说明
图1为本发明提供的一种基于深度学习的车位实时补正的方法的流程图;
图2为本发明实施例提供的基于深度学习模块输出坐标信息的流程图;
图3为本发明实施例提供的基于坐标信息进行车辆控制的流程图;
图4为本发明提供的一种基于深度学习的车位实时补正的系统的结构框图;
图5为本发明提供的初始目标车位与修正目标车位的对比示意图;
图6为本发明提供的一种可能的电子设备的硬件结构示意图;
图7为本发明提供的一种可能的计算机可读存储介质的硬件结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
图1为本发明提供的一种基于深度学习的车位实时补正的方法流程图,如图1所示,该方法包括:包括:
步骤1,构建并训练基于深度学习的车位识别模型,在车辆进入车位之前,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的初始坐标信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的修正坐标信息。
步骤2,基于初始坐标信息生成控制车进入车位的策略,基于修正坐标信息实时调整控制车进入车位的策略。
本发明提供的一种基于深度学习的车位实时补正的方法,解决泊车搜库采用一次性搜索导致泊车姿态有一定偏差的问题。
实施例1
本发明提供的实施例1为本发明提供的一种基于深度学习的车位实时补正的方法的实施例,结合图1可知,该方法的实施例包括:
步骤1,构建并训练基于深度学习的车位识别模型,在车辆进入车位之前,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的初始坐标信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的修正坐标信息。
在一种可能的实施例方式中,步骤1还包括:车位识别模型基于设定时长周期性的输出车位的修正坐标信息。
具体实施中,可以根据倒车实际情况,设定一个时长,按照该设定时长,车位识别模型周期性的输出车位的修正坐标信息。
在一种可能的实施例方式中,步骤1还包括:
车位识别模型输出修正坐标信息后,判断与上一次输出的初始坐标信息或修正坐标信息中四个顶点的坐标的差值,有任一差值超过设定阈值时,基于此次输出的修正坐标信息执行步骤2中调整控制车进入车位的策略的操作;否则不执行步骤2中调整控制车进入车位的策略的操作。
具体实施中,先对车位识别模型输出的坐标数据与上一次的坐标数据进行比较,两次坐标数据差距小于设定阈值时,则不发给控制端重新计算车辆进入车位的策略。
图2为本发明实施例提供的基于深度学习模块输出坐标信息的流程图,结合图1和图2可知,在一种可能的实施例方式中,步骤1包括:
将鱼眼摄像头拍摄的鱼眼图去畸变转为IPM图,并对IPM图进行数据清洗。
对IPM图中的车位进行标注后,输入车位识别模型进行训练。
基于训练完成的车位识别模型对待识别图像进行识别。
对车位识别模型输出的车位识别结果进行后处理后得到输出车位坐标信息。
在一种可能的实施例方式中,步骤1中构建的车位识别模型为将全连接层替换为全卷积层的目标检测网络模型,目标检测网络模型为包含卷积层和池化层的全卷积网络。
在一种可能的实施例方式中,目标检测网络模型进行训练和使用的过程中,对目标检测网络模型的每层的输入进行归一化处理。
步骤2,基于初始坐标信息生成控制车进入车位的策略,基于修正坐标信息实时调整控制车进入车位的策略,使得泊入的更加准确
图3为本发明实施例提供的基于坐标信息进行车辆控制的流程图,结合图1-图3可知在一种可能的实施例方式中,步骤2中基于初始坐标信息或修正坐标信息生成或调整车进入车位的策略包括:生成或调整车速度和/或转向角。
实施例2
本发明提供的实施例2为本发明提供的一种基于深度学习的车位实时补正的系统的实施例,图4为本发明实施例提供的一种基于深度学习的车位实时补正的系统结构图,结合图4可知,该系统的实施例包括:车位识别模型、后处理模型和融合模块。
车位识别模型,用于在车辆进入车位之前,将相机采集的图像输入训练完成的车位识别模型后输出初始目标车位信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的车位识别模型后输出修正目标车位信息;图5为本发明提供的初始目标车位与修正目标车位的对比示意图,图5中绿色框表示泊车时的初始目标车位,红色框表示实时检测到的修正目标车位。
后处理模型,用于对车位识别模型输出的初始目标车位信息和修正目标车位信息进行后处理,得到目标车位的初始坐标信息和修正坐标信息。
融合模块,用于基于初始坐标信息生成控制车进入车位的策略,基于修正坐标信息实时调整控制车进入车位的策略。
可以理解的是,本发明提供的一种基于深度学习的车位实时补正的系统与前述各实施例提供的基于深度学习的车位实时补正的方法相对应,基于深度学习的车位实时补正的系统的相关技术特征可参考基于深度学习的车位实时补正的方法的相关技术特征,在此不再赘述。
请参阅图6,图6为本发明实施例提供的电子设备的实施例示意图。如图6所示,本发明实施例提了一种电子设备,包括存储器1310、处理器1320及存储在存储器1310上并可在处理器1320上运行的计算机程序1311,处理器1320执行计算机程序1311时实现以下步骤:构建并训练基于深度学习的车位识别模型,在车辆进入车位之前,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的初始坐标信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的修正坐标信息;基于初始坐标信息生成控制车进入车位的策略,基于修正坐标信息实时调整控制车进入车位的策略。
请参阅图7,图7为本发明提供的一种计算机可读存储介质的实施例示意图。如图7所示,本实施例提供了一种计算机可读存储介质1400,其上存储有计算机程序1411,该计算机程序1411被处理器执行时实现如下步骤:构建并训练基于深度学习的车位识别模型,在车辆进入车位之前,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的初始坐标信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的车位识别模型后得到目标车位的修正坐标信息;基于初始坐标信息生成控制车进入车位的策略,基于修正坐标信息实时调整控制车进入车位的策略。
本发明实施例提供的一种基于深度学习的车位实时补正的方法、系统、电子设备及存储介质,在泊车入库的过程实时的检测车位信息并输出给融合系统,使泊车完成后车辆姿态达到标准。在一次性搜索基础上加入实时检测车位功能,能够在整个泊车过程中,提供高度精确的车位数据。解决泊车搜库过程中由于相机畸变和模型推理的误差累计导致泊车姿态不佳的问题。解决距离较远时,灰暗场景,磨损车位车位线不清晰时,车位检测边缘误检的问题,使得车辆泊入的更加准确。
需要说明的是,在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详细描述的部分,可以参见其它实施例的相关描述。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式计算机或者其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。
Claims (10)
1.一种基于深度学习的车位实时补正的方法,其特征在于,所述方法包括:
步骤1,构建并训练基于深度学习的车位识别模型,在车辆进入车位之前,将相机采集的图像输入训练完成的所述车位识别模型后得到目标车位的初始坐标信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的所述车位识别模型后得到所述目标车位的修正坐标信息;
步骤2,基于所述初始坐标信息生成控制车进入车位的策略,基于所述修正坐标信息实时调整控制车进入车位的策略。
2.根据权利要求1所述的方法,其特征在于,所述步骤1还包括:所述车位识别模型基于设定时长周期性的输出车位的修正坐标信息。
3.根据权利要求1所述的方法,其特征在于,所述步骤1还包括:
所述车位识别模型输出修正坐标信息后,判断与上一次输出的初始坐标信息或修正坐标信息中四个顶点的坐标的差值,有任一差值超过设定阈值时,基于此次输出的所述修正坐标信息执行步骤2中调整控制车进入车位的策略的操作;否则不执行步骤2中调整控制车进入车位的策略的操作。
4.根据权利要求1所述的方法,其特征在于,所述步骤1包括:
将鱼眼摄像头拍摄的鱼眼图去畸变转为IPM图,并对IPM图进行数据清洗;
对所述IPM图中的车位进行标注后,输入所述车位识别模型进行训练;
基于训练完成的所述车位识别模型对待识别图像进行识别;
对所述车位识别模型输出的车位识别结果进行后处理后得到输出车位坐标信息。
5.根据权利要求1所述的方法,其特征在于,所述步骤1中构建的所述车位识别模型为将全连接层替换为全卷积层的目标检测网络模型,所述目标检测网络模型为包含卷积层和池化层的全卷积网络。
6.根据权利要求5所述的方法,其特征在于,所述目标检测网络模型进行训练和使用的过程中,对所述目标检测网络模型的每层的输入进行归一化处理。
7.根据权利要求1所述的方法,其特征在于,所述步骤2中基于所述所述初始坐标信息或修正坐标信息生成或调整车进入车位的策略包括:生成或调整车速度和/或转向角。
8.一种基于深度学习的车位实时补正的系统,其特征在于,包括:车位识别模型、后处理模型和融合模块;
所述车位识别模型,用于在车辆进入车位之前,将相机采集的图像输入训练完成的所述车位识别模型后输出初始目标车位信息;在车辆实时进入车位的过程中,将相机采集的图像输入训练完成的所述车位识别模型后输出修正目标车位信息;
所述后处理模型,用于对所述车位识别模型输出的所述初始目标车位信息和所述修正目标车位信息进行后处理,得到所述目标车位的初始坐标信息和修正坐标信息;
所述融合模块,用于基于所述初始坐标信息生成控制车进入车位的策略,基于所述修正坐标信息实时调整控制车进入车位的策略。
9.一种电子设备,其特征在于,包括存储器、处理器,所述处理器用于执行存储器中存储的计算机管理类程序时实现如权利要求1-7任一项所述的基于深度学习的车位实时补正的方法的步骤。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机管理类程序,所述计算机管理类程序被处理器执行时实现如权利要求1-7任一项所述的基于深度学习的车位实时补正的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311583901.3A CN117649651A (zh) | 2023-11-24 | 2023-11-24 | 一种基于深度学习的车位实时补正的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311583901.3A CN117649651A (zh) | 2023-11-24 | 2023-11-24 | 一种基于深度学习的车位实时补正的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117649651A true CN117649651A (zh) | 2024-03-05 |
Family
ID=90048800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311583901.3A Pending CN117649651A (zh) | 2023-11-24 | 2023-11-24 | 一种基于深度学习的车位实时补正的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117649651A (zh) |
-
2023
- 2023-11-24 CN CN202311583901.3A patent/CN117649651A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11205276B2 (en) | Object tracking method, object tracking device, electronic device and storage medium | |
US10937176B2 (en) | Object recognition apparatus | |
CN110587597B (zh) | 一种基于激光雷达的slam闭环检测方法及检测系统 | |
CN108805016B (zh) | 一种头肩区域检测方法及装置 | |
CN111860352B (zh) | 一种多镜头车辆轨迹全跟踪系统及方法 | |
JP2016081525A (ja) | 車両用画像認識システム、及び対応法 | |
CN113907663B (zh) | 障碍物地图构建方法、清洁机器人及存储介质 | |
CN110197106A (zh) | 物件标示系统及方法 | |
CN110135377B (zh) | 车路协同中物体运动状态检测方法、装置和服务器 | |
CN112200884B (zh) | 一种车道线的生成方法及装置 | |
CN112598922B (zh) | 车位检测方法、装置、设备及存储介质 | |
JP2020067698A (ja) | 区画線検出装置及び区画線検出方法 | |
CN110751040A (zh) | 一种三维物体的检测方法和装置、电子设备、存储介质 | |
CN114495025A (zh) | 一种车辆识别方法、装置、电子设备及存储介质 | |
CN106408593A (zh) | 一种基于视频的车辆跟踪方法及装置 | |
CN111488762A (zh) | 一种车道级定位方法、装置及定位设备 | |
CN117372536A (zh) | 激光雷达与相机标定方法、系统、设备和存储介质 | |
JP2021117760A (ja) | 物体追跡装置及び物体追跡方法 | |
CN117649651A (zh) | 一种基于深度学习的车位实时补正的方法 | |
CN115830559A (zh) | 一种轮胎吊的车道线识别的方法、存储介质和电子设备 | |
KR101595334B1 (ko) | 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치 | |
CN112693450B (zh) | 一种优化自动泊车的分析方法、装置、电子设备和介质 | |
CN114371475A (zh) | 一种优化标定参数的方法、系统、设备及计算机存储介质 | |
CN114428259A (zh) | 一种基于地图车采集的地库激光点云中车辆自动提取方法 | |
CN114092899A (zh) | 从输入数据中识别对象的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |