CN109635692B - 基于超声波传感器的场景再识别方法 - Google Patents

基于超声波传感器的场景再识别方法 Download PDF

Info

Publication number
CN109635692B
CN109635692B CN201811458850.0A CN201811458850A CN109635692B CN 109635692 B CN109635692 B CN 109635692B CN 201811458850 A CN201811458850 A CN 201811458850A CN 109635692 B CN109635692 B CN 109635692B
Authority
CN
China
Prior art keywords
scene
fitting
ultrasonic sensor
information
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811458850.0A
Other languages
English (en)
Other versions
CN109635692A (zh
Inventor
谢帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heduo Technology Guangzhou Co ltd
Original Assignee
HoloMatic Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HoloMatic Technology Beijing Co Ltd filed Critical HoloMatic Technology Beijing Co Ltd
Priority to CN201811458850.0A priority Critical patent/CN109635692B/zh
Publication of CN109635692A publication Critical patent/CN109635692A/zh
Application granted granted Critical
Publication of CN109635692B publication Critical patent/CN109635692B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

本发明公开了一种基于超声波传感器的场景再识别方法,包括:预存场景地图,提取场景地图中场景或物体的曲面、边界线、拐角点以及语义特征点,场景或物体的边界线和曲面拟合,存入数据库;行驶的无人车上的任一个超声波传感器实时动态获取其相对于检测范围内的障碍物的多个实时位置信息,进行坐标变换,得无人车的行驶轨迹;提取中行驶轨迹中的拐角点以及曲线,将拐角点标识以及曲线拟合,以得轨迹拟合信息;将轨迹拟合信息与提取信息和场景拟合信息进行匹配对比,优化得与无人车上超声传感器感知到的环境最为匹配的场景局部区域。本发明建立了与超声波传感器匹配的场景再识别方法,极大的降低了场景再识别的使用成本及功耗。

Description

基于超声波传感器的场景再识别方法
技术领域
本发明涉及无人驾驶技术领域,尤其涉及一种基于超声波传感器的场景再识别方法。
背景技术
无人驾驶中技术涵盖五大模块;定位、建图、感知、规划和控制。在封闭应用场景(如停车场,园区内,小区内等)下的无人驾驶解决方案中最为重要的功能之一为,根据感知模块处理后的传感器信息从场景地图识别出无人车当前所处环境,该功能的实现依赖于三方面;精准的地图信息,精确可靠的传感器以及将传感器信息和地图进行匹配比对的算法即场景再识别算法。近年来包括高精激光雷达、长距毫米波雷达、短距超声波雷达和相机在内的传感器的发展为上述三方面中的前两方面提供了支持。目前可靠场景再识别算法多数基于将实时激光雷达的实时数据与预建地图进行比对,受限于激光雷达居高不下得成本和计算机计算能力的限制,使用该算法的无人车解决方案成本高昂。目前尚未有适用于如超声波传感器器这种低成本的传感器的场景再识别方法。
发明内容
本发明的一个目的是解决至少上述问题,并提供至少后面将说明的优点。
本发明还有一个目的是提供一种基于超声波传感器的场景再识别方法,建立了与超声波传感器匹配的场景再识别方法,极大的降低了场景再识别的成本以及功耗。
为了实现根据本发明的这些目的和其它优点,提供了一种基于超声波传感器的场景再识别方法,包括:
步骤1、在数据库中预存储场景地图,提取所述场景地图中的标识信息并将所述标识信息存储入所述数据库,所述标识信息包括所述场景地图中的场景或物体的曲面、边界线、拐角点以及语义特征点。
步骤2、将步骤1中场景或物体的所述边界线和曲面拟合,以得场景或物体的拟合信息,并将拟合信息存储至所述数据库。
步骤3、在行驶过程中,按照时间顺序,所述无人车上的任一个超声波传感器实时动态获取其相对于检测范围内的障碍物的多个实时位置信息,将实时动态获取的所述多个实时位置信息依次进行坐标变换生成多个坐标信息。
步骤4、按时间顺序,依次串接实时动态获取的任一个超声波传感器的多个坐标信息以获取该超声波传感器随时间变化的轨迹,以此类推,获得所述无人车的多个超声波传感器的多个轨迹,多个轨迹组成为所述无人车的行驶轨迹。
步骤5、通过提取步骤4中所述行驶轨迹中多个轨迹的拐角点以及曲线,将所述拐角点标识以及所述曲线拟合,以得轨迹拟合信息。
步骤6、通过将步骤5中的所述轨迹拟合信息与步骤3中存储至所述数据库内的所述提取信息和场景拟合信息进行匹配对比,以优化得与所述无人车上所述超声传感器感知到的环境最为匹配的场景局部区域;其中,所述匹配对比抽象为对曲线和流形的差异度量的优化。
优选的是,步骤1中预存储的所述场景地图通过激光雷达或毫米波雷达获取。
优选的是,步骤1中所述拐角点的标识采用Harris算子;所述语义特征点的标识根据计算力限制及精度要求采用SIFT算子、加速稳健特征、HOG或通过某一像素与其周围领域内足够多的像素点相差较大的方式,确定所述像素可能是角点的FAST算子;所述边界线的识别采用Canny算法。
优选的是,步骤5中所述轨迹拟合信息获取过程如下:
采用所述Harris算子对所述拐角点标识。
采用梯度下降、高斯过程或EM算法对所述曲线拟合。
优选的是,步骤2中所述边界线的拟合采用霍夫变换;所述曲面及所述曲面上曲线的拟合采用所述梯度下降、高斯过程或EM算法。
优选的是,步骤6中的所述度量可在对所述曲面进行切片后使用L2距离,或使用基于概率分布的KL散度或JS散度。
优选的是,步骤6中优化所用算法为梯度下降法。
本发明至少包括以下有益效果:
本发明通过获取场景地图,将此场景地图内的可用于地图匹配对比的关于场景或场景内人物的曲面、边界线、拐角点以及语义特征点等信息提取标识出来存储至数据库内,便于备份调取使用,并对提取的边界线以及曲面以点连线,并将连线后的图形或数据信息存储至数据库内,其中,所述数据库为内存较大,查询效率较高的高效数据库;再通过无人驾驶车内的超声波传感器实时读取车身周围的障碍物的位置信息,障碍物位置信息的确定需同时考虑无人车行驶过程中的行驶轨迹以及超声波传感器相对车身的位置,将障碍物的位置信息转换为坐标的形式,便于在预建的场景地图上定位,从而建立行驶轨迹;通过提取标识无人车的行驶轨迹内的拐角点标识,并将曲线进行拟合,建立用于地图匹配比对的信息,与数据库内存储的所述场景地图相关的特征点以及拟合后的曲面信息,进行匹配比对,特征点、曲线和曲面的匹配比对在数学上可抽象为优化曲线和流形的差异度量,从而将匹配比对的过程具体至可见的优化算法上,以得与超声波传感器感知的最为匹配的局部区域,克服了以往采用将实时激光雷达的实时数据与预建地图进行比对的方式需承担的高昂的成本,通过所述场景再识别算法,实现了利用超声波传感器再识别场景的目的,极大的降低了实现场景再识别功能的成本以及功耗。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
图1为本发明所述基于超声波传感器的场景再识别方法的流程图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
应当理解,本文所使用的诸如“具有”、“包含”以及“包括”术语并不排除一个或多个其它元件或其组合的存在或添加。
如图1所示,本发明提供一种基于超声波传感器的场景再识别方法,包括:
步骤1、通过获取场景地图,提取标识所述地图场景中的场景或物体的曲面、边界线、拐角点以及语义特征点,以得标识信息。
步骤2、将步骤1中所述边界线和曲面拟合,以得场景拟合信息。
步骤3、将步骤1所述提取信息以及步骤2所述场景拟合信息存储至数据库。
步骤4、通过设置在无人车上的超声波传感器实时读取所述无人车在行驶过程中,障碍物的位置信息,将所述位置信息进行坐标变换,以得所述无人车的行驶轨迹。
步骤5、通过提取步骤4中所述行驶轨迹中的拐角点以及曲线,将所述拐角点标识以及所述曲线拟合,以得轨迹拟合信息。
步骤6、通过将步骤5中的所述轨迹拟合信息与步骤3中存储至所述数据库内的所述提取信息和场景拟合信息进行匹配对比,以优化得与所述无人车上所述超声传感器感知到的环境最为匹配的场景局部区域;其中,所述匹配对比抽象为对曲线和流形的差异度量的优化。
在上述方案中,通过预建场景地图,将此场景地图内的可用于地图匹配对比的关于场景或场景内人物的曲面、边界线、拐角点以及语义特征点等信息提取标识出来存储至数据库内,便于备份调取使用,并对提取的边界线以及曲面以点连线,并将连线后的图形或数据信息存储至数据库内,其中,所述数据库为内存较大,查询效率较高的高效数据库;再通过无人驾驶车内的超声波传感器实时读取车身周围的障碍物的位置信息,障碍物位置信息的确定需同时考虑无人车行驶过程中的行驶轨迹以及超声波传感器相对车身的位置,将障碍物的位置信息转换为坐标的形式,便于在预建的场景地图上定位,从而建立行驶轨迹;通过提取标识无人车的行驶轨迹内的拐角点标识,并将曲线进行拟合,建立用于地图匹配比对的信息,与数据库内存储的所述场景地图相关的特征点以及拟合后的曲面信息,进行匹配比对,特征点、曲线和曲面的匹配比对在数学上可抽象为优化曲线和流形的差异度量,从而将匹配比对的过程具体至可见的优化算法上,以得与超声波传感器感知的最为匹配的局部区域,克服了以往采用将实时激光雷达的实时数据与预建地图进行比对的方式需承担的高昂的成本,通过所述场景再识别算法,实现了利用超声波传感器再识别场景的目的,极大的降低了实现场景再识别功能的成本以及功耗。
一个优选方案中,步骤1中预存储的所述场景地图通过激光雷达或毫米波雷达获取。
在上述方案中,通过激光雷达以向目标发射探测信号,然后将接收到的从目标反射回来的信号与发射信号进行比较,作适当处理后,获得目标的有关信息,如目标距离、方位、高度、速度、姿态、甚至形状等参数,从而使得无人驾驶区域内场景地图的预建更加全面、准确以及高效;毫米波雷达是工作在毫米波波段探测的雷达,毫米波雷达能分辨识别很小的目标,而且能同时识别多个目标的功能,同样可用于场景地图的建立。
一个优选方案中,步骤1中所述拐角点的标识采用Harris算子;所述语义特征点的标识根据计算力限制及精度要求采用SIFT算子、加速稳健特征、HOG或通过某一像素与其周围领域内足够多的像素点相差较大的方式,确定所述像素可能是角点的FAST算子;所述边界线的识别采用Canny算法。
在上述方案中,通过采用Harris算子,利用其判断角点和边缘质量的测度或响应,响应函数值的大小可用于挑选孤立的角点像素或细化边缘像素,从而准确快速标识拐角点;SIFT(Scale Invariant Feature Transform)算子是计算机视觉领域非常著名的特征算子,它可用于模式识别和影像匹配,是一种基于尺度空间的、对图像缩放、旋转甚至仿射变换保持不变性的图像局部特征描述算子即尺度不变特征变换;加速稳健特征即SURF(Speeded Up Robust Features)是一个稳健的图像识别和描述算法,用于计算机视觉任务,如物件识别和3D重构;HOG(Histogram of Oriented Gradient)即方向梯度直方图是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子,HOG特征通过计算和统计图像局部区域的梯度方向直方图来构成特征;FAST算子通过某一像素与其周围领域内足够多的像素点相差较大的方式,确定所述像素可能是角点,为了解决系统检测的实时性问题;语仪特征点标识根据计算力的不同以及对于计算精度的不同需求,按需选择上述算法以达最佳;Canny算法是边缘检测的一种标准算法,其用于边界限标识利于尽可能多地标识出图像中的实际边缘,漏检真实边缘的概率和误检非边缘的概率都尽可能小。
一个优选方案中,步骤5中所述轨迹拟合信息获取过程如下:
采用所述Harris算子对所述拐角点标识。
采用梯度下降、高斯过程或EM算法对所述曲线拟合。
在上述方案中,通过采用Harris算子,利用其判断角点和边缘质量的测度或响应,响应函数值的大小可用于挑选孤立的角点像素或细化边缘像素,从而准确快速标识拐角点,与步骤1中拐角点的标识算法类似;再采用步骤2中对曲线的拟合算法运用与轨迹曲线拟合中,以实现低功耗高反映速度的需求。
一个优选方案中,步骤2中所述边界线的拟合采用霍夫变换;所述曲面及所述曲面上曲线的拟合采用所述梯度下降、高斯过程或EM算法。
在上述方案中,通过利用霍夫变换对边界线拟合便于剔除数据点集中的干扰点,并将分布在不同边界线附近的点分离出来,从而降低拟合误差;梯度下降算法是通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值或需要求解损失函数的最大值,就需要用梯度上升法来迭代;高斯过程是概率论和数理统计中随机过程的一种,是一系列服从正态分布的随机变量在一指数集内的组合;EM算法也是一种迭代算法,在统计学中被用于寻找,依赖于不可观察的隐性变量的概率模型中,参数的最大似然估计;上述算法的均不是高度精确的算法,但满足拟合精度需求的前提下,可降低功耗并提高反映速度。
一个优选方案中,步骤6中的所述度量可在对所述曲面进行切片后使用L2距离,或使用基于概率分布的KL散度或JS散度。
在上述方案中,通过确定度量时的距离或基于概率分布的散度,便于提高场景再识别的优化结果与超声波传感器感知的场景的匹配度。
一个优选方案中,步骤6中优化所用算法为梯度下降法。
在上述方案中,梯度下降算法是通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值或需要求解损失函数的最大值,就需要用梯度上升法来迭代;梯度下降法是为了优化损失函数,最常用的一种优化算法。
1、使用高精激光雷达或其他方式预建场景地图。
2、从地图信息中提取场景或物体的曲面,边界线,拐角点,语义特征点等可用于地图匹配对比的特征。拐角点的标识可使用Harris算子。语义特征点的标识可根据计算力限制和精度要求选取使用SIFT算子,SURF算子,HOG算子或FAST算子等。边界线的识别可使用Canny边缘检测算法。
3、对第2步中的边界线和曲面进行拟合。边界线的拟合可使用霍夫变换。曲线和曲面的拟合可使用基于梯度下降,高斯过程或EM算法的优化算法实现。
4、使用高效数据库储存第2步中提取的特征点和第3步拟合后的曲面信息。
5、在无人车形式过程中记录随时空间变化的超声波传感器读取的障碍物位置信息。
6、根据无人车形式过程中的姿态和超声波传感器相对车身的姿态对第5步中的传感器位置信息进行坐标变换。
7、对第6步中变换后的超声波传感器位置信息随时间变化的轨迹进行类似第2步中的拐角点标识和第3步中的曲线拟合。
8、将第7步中标识的拐角点和经拟合后的曲线与第4步中的特征点和曲面信息进行匹配比对特征点,曲线和曲面的匹配比对在数学上可抽象为优化曲线和流型的差异度量,其度量可在对曲面进行切片后使用L2距离,或使用基于概率分布的KL散度或JS散度。优化算法可采用梯度下降法。优化算法收敛后的结果即表示与车辆当前由超声波传感器感知到的环境最为匹配的场景局部区域。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (7)

1.一种基于超声波传感器的场景再识别方法,其中,包括:
步骤1、在数据库中预存储场景地图,提取所述场景地图中的标识信息并将所述标识信息存储入所述数据库,所述标识信息包括所述场景地图中的场景或物体的曲面、边界线、拐角点以及语义特征点;
步骤2、将步骤1中场景或物体的所述边界线和曲面拟合,以得场景或物体的拟合信息,并将拟合信息存储至所述数据库;
步骤3、在行驶过程中,按照时间顺序,无人车上的任一个超声波传感器实时动态获取其相对于检测范围内的障碍物的多个实时位置信息,将实时动态获取的所述多个实时位置信息依次进行坐标变换生成多个坐标信息;
步骤4、按时间顺序,依次串接实时动态获取的任一个超声波传感器的多个坐标信息以获取该超声波传感器随时间变化的轨迹,以此类推,获得所述无人车的多个超声波传感器的多个轨迹,多个轨迹组成为所述无人车的行驶轨迹;
步骤5、通过提取步骤4中所述行驶轨迹中多个轨迹的拐角点以及曲线,将所述拐角点标识以及所述曲线拟合,以得轨迹拟合信息;
步骤6、通过将步骤5中的所述轨迹拟合信息与步骤1中存储至所述数据库内的所述标识信息和步骤2中的所述拟合信息进行匹配对比,以优化得与所述无人车上所述超声波 传感器感知到的环境最为匹配的场景局部区域;其中,所述匹配对比抽象为对曲线和流形的差异度量的优化。
2.如权利要求1所述基于超声波传感器的场景再识别方法,其中,步骤1中预存储的所述场景地图通过激光雷达或毫米波雷达获取。
3.如权利要求1所述基于超声波传感器的场景再识别方法,其中,步骤1中所述拐角点的标识采用Harris算子;所述语义特征点的标识根据计算力限制及精度要求采用SIFT算子、加速稳健特征、HOG或通过某一像素与其周围范围内足够多的像素点相差较大的方式,确定所述像素是角点的FAST算子;所述边界线的识别采用Canny算法。
4.如权利要求3所述基于超声波传感器的场景再识别方法,其中,步骤5中所述轨迹拟合信息获取过程如下:
采用所述Harris算子对所述拐角点标识;
采用梯度下降、高斯过程或EM算法对所述曲线拟合。
5.如权利要求4所述基于超声波传感器的场景再识别方法,其中,步骤2中所述边界线的拟合采用霍夫变换;所述曲面及所述曲面上曲线的拟合采用所述梯度下降、高斯过程或EM算法。
6.如权利要求1所述的基于超声波传感器的场景再识别方法,其中,步骤6中的所述度量可在对所述曲面进行切片后使用L2距离,或使用基于概率分布的KL散度或JS散度。
7.如权利要求1所述的基于超声波传感器的场景再识别方法,其中,步骤6中优化所用算法为梯度下降法。
CN201811458850.0A 2018-11-30 2018-11-30 基于超声波传感器的场景再识别方法 Active CN109635692B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811458850.0A CN109635692B (zh) 2018-11-30 2018-11-30 基于超声波传感器的场景再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811458850.0A CN109635692B (zh) 2018-11-30 2018-11-30 基于超声波传感器的场景再识别方法

Publications (2)

Publication Number Publication Date
CN109635692A CN109635692A (zh) 2019-04-16
CN109635692B true CN109635692B (zh) 2021-07-06

Family

ID=66070576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811458850.0A Active CN109635692B (zh) 2018-11-30 2018-11-30 基于超声波传感器的场景再识别方法

Country Status (1)

Country Link
CN (1) CN109635692B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110243368A (zh) * 2019-04-29 2019-09-17 丰疆智能科技研究院(常州)有限公司 智能农机的行驶轨迹建立系统及其应用
CN110211420B (zh) * 2019-06-25 2021-11-30 重庆长安汽车股份有限公司 判断当前场景是否为停车场的方法、系统及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN204383456U (zh) * 2014-12-31 2015-06-10 江苏大学 基于场景多样性识别的自动泊车系统
CN105868730A (zh) * 2016-04-14 2016-08-17 吴本刚 一种具有场景识别功能的超声波探测装置
CN105954048A (zh) * 2016-07-07 2016-09-21 百度在线网络技术(北京)有限公司 测试无人车正常驾驶的方法及装置
CN106813672A (zh) * 2017-01-22 2017-06-09 深圳悉罗机器人有限公司 移动机器人的导航方法及移动机器人
CN108833833A (zh) * 2018-06-20 2018-11-16 长安大学 面向智能网联汽车场景图像数据感知与协同处理系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN204383456U (zh) * 2014-12-31 2015-06-10 江苏大学 基于场景多样性识别的自动泊车系统
CN105868730A (zh) * 2016-04-14 2016-08-17 吴本刚 一种具有场景识别功能的超声波探测装置
CN105954048A (zh) * 2016-07-07 2016-09-21 百度在线网络技术(北京)有限公司 测试无人车正常驾驶的方法及装置
CN106813672A (zh) * 2017-01-22 2017-06-09 深圳悉罗机器人有限公司 移动机器人的导航方法及移动机器人
CN108833833A (zh) * 2018-06-20 2018-11-16 长安大学 面向智能网联汽车场景图像数据感知与协同处理系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
robotic room-level localization using multiple sets of sonar measurements;Liu H 等;《IEEE Transactions on Instrumentation and Measurement》;20161101;全文 *
基于同步定位成图的便携式激光感知系统研究;詹世涛;《中国优秀硕士学位论文全文数据库信息科技辑》;20170215;全文 *

Also Published As

Publication number Publication date
CN109635692A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
CN108171748B (zh) 一种面向机器人智能抓取应用的视觉识别与定位方法
Barnea et al. Colour-agnostic shape-based 3D fruit detection for crop harvesting robots
EP3293669A1 (en) Enhanced camera object detection for automated vehicles
CN101609504B (zh) 一种红外图像海面目标检测识别定位方法
CN107490346B (zh) 一种基于视觉的rfid多标签网络三维测量建模方法
Holz et al. Towards semantic scene analysis with time-of-flight cameras
Valiente García et al. Visual odometry through appearance-and feature-based method with omnidirectional images
CN110021029B (zh) 一种适用于rgbd-slam的实时动态配准方法及存储介质
CN105260750A (zh) 一种奶牛识别方法及系统
CN111964680B (zh) 一种巡检机器人的实时定位方法
CN111198496A (zh) 一种目标跟随机器人及跟随方法
CN109635692B (zh) 基于超声波传感器的场景再识别方法
Zelener et al. Cnn-based object segmentation in urban lidar with missing points
CN116128841A (zh) 托盘位姿检测方法及装置、无人叉车、存储介质
Streiff et al. 3D3L: Deep learned 3D keypoint detection and description for lidars
CN113469195B (zh) 一种基于自适应颜色快速点特征直方图的目标识别方法
Han et al. Shape context based object recognition and tracking in structured underwater environment
CN113989308A (zh) 一种基于霍夫变换与模板匹配的多边形目标分割方法
KR101528757B1 (ko) 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법
CN110738098A (zh) 一种目标的识别定位与锁定跟踪方法
Lee et al. Autonomous salient feature detection through salient cues in an HSV color space for visual indoor simultaneous localization and mapping
Wang et al. Image-based localization and pose recovery using scale invariant features
Hamarsudi et al. Radial Search Lines Method for Estimating Soccer Robot Position Using an Omnidirectional Camera
Pan et al. Fast vanishing point estimation based on particle swarm optimization
CN116452791B (zh) 多相机点位的缺陷区域定位方法、系统、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 201, 202, 301, No. 56-4 Fenghuang South Road, Huadu District, Guangzhou City, Guangdong Province, 510806

Patentee after: Heduo Technology (Guangzhou) Co.,Ltd.

Address before: 100089 21-14, 1st floor, building 21, Enji West Industrial Park, No.1, liangjiadian, Fuwai, Haidian District, Beijing

Patentee before: HOLOMATIC TECHNOLOGY (BEIJING) Co.,Ltd.

CP03 Change of name, title or address
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A Scene Recognition Method Based on Ultrasonic Sensors

Granted publication date: 20210706

Pledgee: Bank of Shanghai Co.,Ltd. Beijing Branch

Pledgor: Heduo Technology (Guangzhou) Co.,Ltd.

Registration number: Y2024980009891