CN117008613A - 基于点云与视觉融合的对位方法、系统、设备及存储介质 - Google Patents
基于点云与视觉融合的对位方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN117008613A CN117008613A CN202310976005.7A CN202310976005A CN117008613A CN 117008613 A CN117008613 A CN 117008613A CN 202310976005 A CN202310976005 A CN 202310976005A CN 117008613 A CN117008613 A CN 117008613A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- alignment
- information
- coordinate system
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000004927 fusion Effects 0.000 title claims abstract description 68
- 210000000078 claw Anatomy 0.000 claims description 8
- 230000007613 environmental effect Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000007774 longterm Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/485—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Navigation (AREA)
Abstract
本发明提供了基于点云与视觉融合的对位方法、系统、设备及存储介质,该方法包括以下步骤:在到达导航路径的终点之前,采集环境图像,进行图像识别,获得预设对位特征物体代表的图像区域和对应的激光点云信息;基于激光点云信息获得对位特征物体在车体坐标系下的目标坐标;将目标坐标投影到里程计坐标系,获得规划轨迹点序列;基于规划轨迹点序列引导车辆驶向对位特征物体。本发明能够不依赖GPS以及融合定位等可能出现全局位置数据不准确的定位源,只使用里程计坐标完成对位,不依赖任何全局对位信息而实现精确、平滑的对位。
Description
技术领域
本发明涉及导航定位技术领域,尤其涉及一种基于点云与视觉融合的对位方法、系统、设备及存储介质。
背景技术
球卫星定位系统(简称CPS)是利用GPS定位卫星,在全球范围内实行进行定位、导航的系统。CPS基站定位作为一种代替GPS的技术,综合采用了全球移动网络通信系统(GSM),是继GPS后的又一种定位系统。
现有无人车对位过程中所使用的CPS系统只能提供单维度的偏差值进行对位引导,这种对位过程的前提是车辆已经停在了对位目标点较近的位置,并且几乎没有横向和航向角误差,前后微动即可完成对位。并且,需要无人车首先完成导航任务,再切换到对位过程,开始前后调整。这样的过程首先是没有完整的目标信息,不能支持更多更丰富的规划控制过程,其次是效率低。
尤其是昂遭遇到GPS信号不稳定的情况,CPS系统只能间隙性地获得定位信息,在导航过程中非常容易发生跳变,造成导航不准确,无法满足需要高精度的对位操作的装卸要求。
有鉴于此,本发明提供了一种基于点云与视觉融合的对位方法、系统、设备及存储介质。
需要说明的是,上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
针对现有技术中的问题,本发明的目的在于提供基于点云与视觉融合的对位方法、系统、设备及存储介质,克服了现有技术的困难,能够在码头货船靠岸、GPS定位失灵的场景下,充分利用货船的边缘信息,实现车辆的自定位,提高了集卡与岸桥对位的精度。
本发明的实施例提供一种基于点云与视觉融合的对位方法,包括以下步骤:
在到达导航路径的终点之前,采集环境图像,进行图像识别,获得预设对位特征物体代表的图像区域和对应的激光点云信息;
基于激光点云信息获得所述对位特征物体在车体坐标系下的目标坐标;
将所述目标坐标投影到里程计坐标系,获得规划轨迹点序列;
基于所述规划轨迹点序列引导车辆驶向所述对位特征物体。
优选地,所述在到达导航路径的终点之前,采集环境图像,进行图像识别,获得预设对位特征物体代表的图像区域和对应的激光点云信息,包括:
基于GPS定位数据建立导航路径;
基于所述导航路径行驶,实时采集环境图像;
对所述环境图像进行图像识别,当识别到预设对位特征物体代表的图像区域,获得所述图像区域对应的激光点云信息,当未识别到则返回基于所述导航路径行驶,实时采集环境图像的步骤。
优选地,所述基于所述导航路径行驶,实时采集环境图像,还包括:
通过视觉传感器和激光雷达的融合设备采集环境图像和对应的激光点云信息。
优选地,所述预设对位特征物体包括:大车的横梁或吊具的勾爪。
优选地,所述将所述目标坐标投影到里程计坐标系,获得规划轨迹点序列,包括:
将所述目标坐标投影到里程计坐标系;
至少根据里程计坐标系下所述目标坐标的目标位姿信息和当前位姿势信息,生成引导车辆至目标坐标的轨迹。
优选地,所述至少根据里程计坐标系下所述目标坐标的目标位姿信息和当前位姿势信息,生成引导车辆至目标坐标的轨迹,包括:
根据里程计坐标系下所述目标坐标的目标位姿信息、当前位姿势信息以及当前速度,生成引导车辆至目标坐标的导航轨迹,所述导航轨迹为一规划轨迹点序列,所述规划轨迹点序列中每个规划轨迹点包含一信息组,所述信息组至少包括里程计坐标系下规划轨迹点的坐标信息、姿态信息以及路程。
优选地,所述坐标信息为每个所述规划轨迹点在里程计坐标系下的坐标x、坐标y。
优选地,所述姿态信息至少包括路径切线方向、车辆期望航向、路径曲率。
优选地,所述基于所述规划轨迹点序列引导车辆驶向所述对位特征物体,包括:
基于所述规划轨迹点序列中的每个规划轨迹点依次引导车辆,基于坐标信息和姿态信息进行横向控制,基于路程进行纵向控制。
本发明的实施例还提供一种基于点云与视觉融合的对位系统,用于实现上述的基于点云与视觉融合的对位方法,基于点云与视觉融合的对位系统包括:
环境采集模块,在到达导航路径的终点之前,采集环境图像,进行图像识别,获得预设对位特征物体代表的图像区域和对应的激光点云信息;
坐标定位模块,基于激光点云信息获得所述对位特征物体在车体坐标系下的目标坐标;
轨迹规划模块,将所述目标坐标投影到里程计坐标系,获得规划轨迹点序列;
行驶引导模块,基于所述规划轨迹点序列引导车辆驶向所述对位特征物体。
本发明的实施例还提供一种基于点云与视觉融合的对位设备,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行上述基于点云与视觉融合的对位方法的步骤。
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现上述基于点云与视觉融合的对位方法的步骤。
本发明的基于点云与视觉融合的对位方法、系统、设备及存储介质,能够不依赖GPS以及融合定位等可能出现全局位置数据不准确的定位源,只使用里程计坐标完成对位,不依赖任何全局对位信息而实现精确、平滑的对位。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明的基于点云与视觉融合的对位方法的流程图。
图2至4是本发明的基于点云与视觉融合的对位方法的一种实施过程的示意图。
图5是本发明的基于点云与视觉融合的对位方法的另一种实施过程的流程图。
图6是本发明的基于点云与视觉融合的对位系统的结构示意图。
图7是本发明的基于点云与视觉融合的对位设备的结构示意图。以及
图8是本发明一实施例的计算机可读存储介质的结构示意图。
具体实施方式
以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本申请所揭露的内容轻易地了解本申请的其他优点与功效。本申请还可以通过另外不同的具体实施方式加以实施或应用系统,本申请中的各项细节也可以根据不同观点与应用系统,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面以附图为参考,针对本申请的实施例进行详细说明,以便本申请所属技术领域的技术人员能够容易地实施。本申请可以以多种不同形态体现,并不限定于此处说明的实施例。
在本申请的表示中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的表示意指结合该实施例或示例表示的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,表示的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本申请中表示的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于表示目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的表示中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
为了明确说明本申请,省略与说明无关的器件,对于通篇说明书中相同或类似的构成要素,赋予了相同的参照符号。
在通篇说明书中,当说某器件与另一器件“连接”时,这不仅包括“直接连接”的情形,也包括在其中间把其它元件置于其间而“间接连接”的情形。另外,当说某种器件“包括”某种构成要素时,只要没有特别相反的记载,则并非将其它构成要素排除在外,而是意味着可以还包括其它构成要素。
当说某器件在另一器件“之上”时,这可以是直接在另一器件之上,但也可以在其之间伴随着其它器件。当对照地说某器件“直接”在另一器件“之上”时,其之间不伴随其它器件。
虽然在一些实例中术语第一、第二等在本发明中用来表示各种元件,但是这些元件不应当被这些术语限制。这些术语仅用来将一个元件与另一个元件进行区分。例如,第一接口及第二接口等表示。再者,如同在本发明中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
此处使用的专业术语只用于言及特定实施例,并非意在限定本申请。此处使用的单数形态,只要语句未明确表示出与之相反的意义,那么还包括复数形态。在说明书中使用的“包括”的意义是把特定特性、区域、整数、步骤、作业、要素及/或成份具体化,并非排除其它特性、区域、整数、步骤、作业、要素及/或成份的存在或附加。
虽然未不同地定义,但包括此处使用的技术术语及科学术语,所有术语均具有与本申请所属技术领域的技术人员一般理解的意义相同的意义。普通使用的字典中定义的术语追加解释为具有与相关技术文献和当前提示的内容相符的意义,只要未进行定义,不得过度解释为理想的或非常公式性的意义。
图1是本发明的基于点云与视觉融合的对位方法的流程图。如图1所示,本发明的实施例提供一种基于点云与视觉融合的对位方法,包括以下步骤:
S110、在到达导航路径的终点之前,采集环境图像,进行图像识别,获得预设对位特征物体代表的图像区域和对应的激光点云信息。
S120、基于激光点云信息获得对位特征物体在车体坐标系下的目标坐标。
S130、将目标坐标投影到里程计坐标系,获得规划轨迹点序列。
S140、基于规划轨迹点序列引导车辆驶向对位特征物体。
本发明基于激光雷达和视觉的精准目标点感知技术可以提供对位目标终点的准确位置和航向信息。并且,可以在导航还未结束,对位特征物体已经进入感知测量范围之后即开启对位过程。有了准确的对位目标信息,即可只依赖里程计坐标完成对位,不依赖任何全局对位信息。
在一个优选实施例中,步骤S110,包括:
S111、基于GPS定位数据建立导航路径。
S112、基于导航路径行驶,实时采集环境图像。
S113、对环境图像进行图像识别,当识别到预设对位特征物体代表的图像区域,执行步骤S114,当未识别到则返回步骤S112。
S114、获得图像区域对应的激光点云信息,但不以此为限。本实施例中,还包括将环境图像和激光雷达获得的激光点云信息转换到车身坐标系下。
在一个优选实施例中,步骤S112,还包括:通过视觉传感器和激光雷达的融合设备采集环境图像和对应的激光点云信息,但不以此为限。
在一个优选实施例中,预设对位特征物体包括:大车的横梁或吊具的勾爪,但不以此为限。
在一个优选实施例中,步骤S130,包括:
S131、将目标坐标投影到里程计坐标系。
S132、至少根据里程计坐标系下目标坐标的目标位姿信息和当前位姿势信息,生成引导车辆至目标坐标的轨迹,但不以此为限。
在一个优选实施例中,步骤S132,包括:根据里程计坐标系下目标坐标的目标位姿信息、当前位姿势信息以及当前速度,生成引导车辆至目标坐标的导航轨迹,导航轨迹为一规划轨迹点序列,规划轨迹点序列中每个规划轨迹点包含一信息组,信息组至少包括里程计坐标系下规划轨迹点的坐标信息、姿态信息以及路程,但不以此为限。
在一个优选实施例中,坐标信息为每个规划轨迹点在里程计坐标系下的坐标x、坐标y,但不以此为限。
在一个优选实施例中,姿态信息至少包括路径切线方向、车辆期望航向、路径曲率,但不以此为限。
在一个优选实施例中,步骤S140,包括:基于规划轨迹点序列中的每个规划轨迹点依次引导车辆,基于坐标信息和姿态信息进行横向控制,基于路程进行纵向控制,但不以此为限。
本发明能提供一个一维的偏差值进行前后方向的对位引导,并不会提供横行偏差和航向角偏差数据。所以,如果无人车在进入对位状态后,可能会因为存在横向和航向的偏差而降低对位精度和成功率。
图2至4是本发明的基于点云与视觉融合的对位方法的一种实施过程的示意图。参见图2至4,本发明的基于点云与视觉融合的对位方法的过程包括:首先,集卡1基于GPS定位数据建立导航路径L1(参见图2)。基于导航路径行驶。在正常行驶在去往目的地的路上,可以通过集卡1的定位使用多传感器融合定位算法输出的位姿,这个位姿是车辆在世界坐标系下的绝对位姿。
在行驶过程中,集卡1通过车载视觉传感器和激光雷达的融合设备采集环境图像和对应的激光点云信息(参见图3)。对环境图像进行图像识别预设对位特征物体包括:大车的横梁或吊具的勾爪(可以是,龙吊吊具的勾爪或者岸桥吊具的勾爪,不以此为限),当识别到预设对位特征物体代表的图像区域,本实施例中采用现有的视觉与点云融合的技术,建立图像传感器中每个像素与点云的对应关系,并将激光雷达获得的激光点云信息从激光雷达坐标系转换到车身坐标系下。当图像中识别出吊具2的勾爪,则将代表勾爪的局部图像作为目标图像,获得目标图像中各像素对应的激光点云信息。其中,激光雷达利用飞行时间计算物体的距离。当发射激光脉冲时,其发射时间和方向将被记录。激光脉冲在空气中传播,直到它碰到一个能反射一些能量的障碍物。在接收到能量的部分之后,由传感器记录采集和接收的时间。障碍物的球面坐标利用传感器的返回时间和每次扫描后接收的功率(作为反射率)来计算。由于激光雷达传感器的是一个特殊的球面坐标系值。
基于激光点云信息获得对位特征物体在车体坐标系下的目标坐标,例如:通过计算相关点云信息与车身坐标系原点的方向和平均距离来获得目标坐标和距离信息。
集卡1内置现有的轮式里程计,通过采集车轮的线速度和角速度来进行车辆姿态的控制和调整。然后再将目标坐标投影到集卡1的里程计坐标系,至少根据里程计坐标系下目标坐标的目标位姿信息和当前位姿势信息,生成引导车辆至目标坐标的轨迹。其中,根据里程计坐标系下目标坐标的目标位姿信息、当前位姿势信息以及当前速度,生成引导车辆至目标坐标的导航轨迹L2(参见图3),导航轨迹L2为一规划轨迹点序列,规划轨迹点序列中每个规划轨迹点包含一信息组,信息组至少包括里程计坐标系下规划轨迹点的坐标信息、姿态信息以及路程。其中,坐标信息为每个规划轨迹点在里程计坐标系下的坐标x、坐标y,姿态信息至少包括路径切线方向、车辆期望航向、路径曲率。本实施例中的里程计坐标系可以采用odom坐标系。odom坐标系是一个世界固定坐标系。在odom坐标系中移动平台的位姿可以任意移动,没有任何界限。这种移动使得odom坐标系不能作为长期的全局参考。然而,在odom坐标系中的机器人的姿态能够保证是连续的,这意味着在odom坐标系中的移动平台的姿态总是平滑变化,没有跳变。在一个典型设置中,odom坐标系是基于测距源来计算的,如车轮里程计,视觉里程计或惯性测量单元。odom坐标系作为一种精确,作为短期的本地参考是很有用的,但偏移使得它不能作为长期参考。
最后,基于规划轨迹点序列中的每个规划轨迹点依次引导车辆,基于坐标信息和姿态信息进行横向控制,基于路程进行纵向控制,但不以此为限。
本发明依靠激光雷达和视觉融合感知技术,能够获得无人车期望目标的位置和航向信息。能够在里程计坐标下完成对位过程。不依赖GPS以及融合定位等可能出现全局位置数据不准确的定位源。目前已有的对位方案中,会使用与导航过程中同样的全局定位源进行对位引导,这样做除了出现不可靠因素之外,还会存在精度不高等问题。也有方案是直接使用轮速计进行,前后位置的引导。这样做的不足之处是,只有前后一个维度的度量,不能提供横向和航向的引导。本发明则依靠里程计坐标系,完成对位过程的局部位置更新。里程计结构简单,数据相比较更加可靠。并且,能够支持各种规划控制算法,进行无人车的姿态引导,从而完成对位。
使用本发明的基于点云与视觉融合的对位方法的集卡能够在导航任务(即到达需要进行精准对位前的导航过程)结束前开始目标检测以及精准对位引导过程。现有方案需要在导航结束之后停车,然后再进入对位状态开启偏差值检测,然后前后调整进行位置引导。这样做的明显不足在于效率低,需要导航结束再启动对位过程,中间有明显的等待时间,并且存在导航结束反而需要倒车来完成对位的可能。
使用本发明的基于点云与视觉融合的对位方法的集卡会在导航还未结束时,进入感知检测范围内之后就开启对位引导偏差检测,得到可靠的引导值之后就开启对位过程,可以明显提高作业效率。
无人车在行驶过程中,由导航任务自动引导无人车到达对位点附近,进入检测范围后触发局部对位引导流程。在局部引导过程中,激光雷达和摄像头扫描并实时分析场景数据,融合感知场景特征(比如平面、直线、角点,以及特征物体等),实时计算出一个车体坐标下的目标对位位置姿态。之后,规划模块根据该目标位姿进行路径规划,对无人车进行对位引导。控制模块控制车辆到达目标,完成最终对位。目标点感知测量过程中进行局部引导时,检测物包括大车或者吊具。由于吊具是最终需要对位的物体(吊具完成抓箱操作),所以吊具的检测优先级高于大车。即,不能够检测到吊具时依靠大车进行目标识别,进行大致目标引导;能够检测到吊具时,以吊具为准进行最终精准引导。
具体的检测方案包括:视觉和激光雷达融合检测(使用深度学习自动检测)出吊具(龙吊的吊具或者岸桥的吊具)或者大车,再根据检测物形态特征标记出对位目标。采样视觉和激光雷达融合的方案比单纯使用激光雷达数据有更搞的特征检测精度。依靠视觉信息首先识别出某些特征物,比如大车的横梁,以及吊具的勾爪等物体。这些物体首先具有一般性,比如大车横梁是所有龙吊或者岸桥都主体固定结构,吊具勾爪也是抓箱操作的必要物体。其次,能够指示出目标位姿态,比如四个吊具勾爪就确定了对位的最终空间位置。视觉信息识别出特征物后激光雷达点云数据进融合,得到这些特征物的具体空间位置信息,也能够帮助点云数据拟合出3D空间特征的3个法向量和一个特征点的位置,得到目标法向量。
图5是本发明的基于点云与视觉融合的对位方法的另一种实施过程的流程图。如图5所示,后续的对位过程说明如下:
第一步,判断是否进入感知检测范围,基于激光雷达和视觉融合的感知系统从而开始进行目标位姿的获取。具体感知范围与激光雷达以及摄像头安装位置和数量相关,同时和被检测物体的位置也有关。
第二步,进入感知范围之后,进行目标位姿(x,y,theta)的获取。(x,y,theta)由感知测量得到后最初是在车体坐标系下的,之后会转换到里程计坐标下。不直接在车体坐标下进行引导,而转到里程计坐标的原因:引导轨迹和控制过程是在里程计坐标下完成的。再者,如果感知目标丢失或者有数据卡顿的现象,依然可以依靠里程计坐标系下的历史感知数据完成对位引导。
第三步,依靠目标位姿(x,y,theta)和当前位姿势(x0,y0,theta0),以及当前里程计坐标下的当前速度v0,生成引导车辆至目标的轨迹。一般而言,对位引导过程路径长度通常比较短,所以此处的路径规划不包含速度规划。规划轨迹点包含的信息有:(x,y,theta,heading,kappa,s),即坐标x,y,路径切线方向theta,以及车辆期望航向heading,和路径曲率kappa,路程s等信息。
第四步,依靠第三步得到的路径进行车辆控制,横向控制负责使车辆按照规划的路径和姿态行驶,纵向控制则依照目标点s进行位置控制,最终使车辆进入目标位姿附近的阈值内。最终进入阈值范围内,则完成对位引导。
本发明的基于点云与视觉融合的对位方法能够不依赖GPS以及融合定位等可能出现全局位置数据不准确的定位源,只使用里程计坐标完成对位,不依赖任何全局对位信息而实现精确、平滑的对位。
图6是本发明的基于点云与视觉融合的对位系统的结构示意图。如图6所示,本发明的基于点云与视觉融合的对位系统5,包括:
环境采集模块51,在到达导航路径的终点之前,采集环境图像,进行图像识别,获得预设对位特征物体代表的图像区域和对应的激光点云信息。
坐标定位模块52,基于激光点云信息获得对位特征物体在车体坐标系下的目标坐标。
轨迹规划模块53,将目标坐标投影到里程计坐标系,获得规划轨迹点序列。
行驶引导模块54,基于规划轨迹点序列引导车辆驶向对位特征物体。
在一个优选实施例中,环境采集模块51被配置为基于GPS定位数据建立导航路径,基于导航路径行驶,实时采集环境图像,对环境图像进行图像识别,当识别到预设对位特征物体代表的图像区域,获得图像区域对应的激光点云信息,当未识别到则返回基于导航路径行驶,实时采集环境图像的步骤。
在一个优选实施例中,环境采集模块51还被配置为通过视觉传感器和激光雷达的融合设备采集环境图像和对应的激光点云信息。
在一个优选实施例中,预设对位特征物体包括:大车的横梁或吊具的勾爪。
在一个优选实施例中,轨迹规划模块53被配置为将目标坐标投影到里程计坐标系。至少根据里程计坐标系下目标坐标的目标位姿信息和当前位姿势信息,生成引导车辆至目标坐标的轨迹。
在一个优选实施例中,轨迹规划模块53还可以被配置为根据里程计坐标系下目标坐标的目标位姿信息、当前位姿势信息以及当前速度,生成引导车辆至目标坐标的导航轨迹,导航轨迹为一规划轨迹点序列,规划轨迹点序列中每个规划轨迹点包含一信息组,信息组至少包括里程计坐标系下规划轨迹点的坐标信息、姿态信息以及路程。
在一个优选实施例中,坐标信息为每个规划轨迹点在里程计坐标系下的坐标x、坐标y。
在一个优选实施例中,姿态信息至少包括路径切线方向、车辆期望航向、路径曲率。
在一个优选实施例中,行驶引导模块54被配置为基于规划轨迹点序列中的每个规划轨迹点依次引导车辆,基于坐标信息和姿态信息进行横向控制,基于路程进行纵向控制。
本发明的基于点云与视觉融合的对位系统,能够不依赖GPS以及融合定位等可能出现全局位置数据不准确的定位源,只使用里程计坐标完成对位,不依赖任何全局对位信息而实现精确、平滑的对位。
本发明实施例还提供一种基于点云与视觉融合的对位设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的基于点云与视觉融合的对位方法的步骤。
如上,本发明的基于点云与视觉融合的对位设备能够不依赖GPS以及融合定位等可能出现全局位置数据不准确的定位源,只使用里程计坐标完成对位,不依赖任何全局对位信息而实现精确、平滑的对位。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图7是本发明的基于点云与视觉融合的对位设备的结构示意图。下面参照图7来描述根据本发明的这种实施方式的电子设备600。图7显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的基于点云与视觉融合的对位方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,能够不依赖GPS以及融合定位等可能出现全局位置数据不准确的定位源,只使用里程计坐标完成对位,不依赖任何全局对位信息而实现精确、平滑的对位。
图8是本发明的计算机可读存储介质的结构示意图。参考图8所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上,本发明的基于点云与视觉融合的对位方法、系统、设备及存储介质,能够不依赖GPS以及融合定位等可能出现全局位置数据不准确的定位源,只使用里程计坐标完成对位,不依赖任何全局对位信息而实现精确、平滑的对位。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (12)
1.一种基于点云与视觉融合的对位方法,其特征在于,包括如下步骤:
在到达导航路径的终点之前,采集环境图像,进行图像识别,获得预设对位特征物体代表的图像区域和对应的激光点云信息;
基于激光点云信息获得所述对位特征物体在车体坐标系下的目标坐标;
将所述目标坐标投影到里程计坐标系,获得规划轨迹点序列;
基于所述规划轨迹点序列引导车辆驶向所述对位特征物体。
2.根据权利要求1所述的基于点云与视觉融合的对位方法,其特征在于,所述在到达导航路径的终点之前,采集环境图像,进行图像识别,获得预设对位特征物体代表的图像区域和对应的激光点云信息,包括:
基于GPS定位数据建立导航路径;
基于所述导航路径行驶,实时采集环境图像;
对所述环境图像进行图像识别,当识别到预设对位特征物体代表的图像区域,获得所述图像区域对应的激光点云信息,当未识别到则返回基于所述导航路径行驶,实时采集环境图像的步骤。
3.根据权利要求1所述的基于点云与视觉融合的对位方法,其特征在于,所述基于所述导航路径行驶,实时采集环境图像,还包括:
通过视觉传感器和激光雷达的融合设备采集环境图像和对应的激光点云信息。
4.根据权利要求1所述的基于点云与视觉融合的对位方法,其特征在于,所述预设对位特征物体包括:大车的横梁或吊具的勾爪。
5.根据权利要求1所述的基于点云与视觉融合的对位方法,其特征在于,所述将所述目标坐标投影到里程计坐标系,获得规划轨迹点序列,包括:
将所述目标坐标投影到里程计坐标系;
至少根据里程计坐标系下所述目标坐标的目标位姿信息和当前位姿势信息,生成引导车辆至目标坐标的轨迹。
6.根据权利要求5所述的基于点云与视觉融合的对位方法,其特征在于,所述至少根据里程计坐标系下所述目标坐标的目标位姿信息和当前位姿势信息,生成引导车辆至目标坐标的轨迹,包括:
根据里程计坐标系下所述目标坐标的目标位姿信息、当前位姿势信息以及当前速度,生成引导车辆至目标坐标的导航轨迹,所述导航轨迹为一规划轨迹点序列,所述规划轨迹点序列中每个规划轨迹点包含一信息组,所述信息组至少包括里程计坐标系下规划轨迹点的坐标信息、姿态信息以及路程。
7.根据权利要求6所述的基于点云与视觉融合的对位方法,其特征在于,所述坐标信息为每个所述规划轨迹点在里程计坐标系下的坐标x、坐标y。
8.根据权利要求6所述的基于点云与视觉融合的对位方法,其特征在于,所述姿态信息至少包括路径切线方向、车辆期望航向、路径曲率。
9.根据权利要求6所述的基于点云与视觉融合的对位方法,其特征在于,所述基于所述规划轨迹点序列引导车辆驶向所述对位特征物体,包括:
基于所述规划轨迹点序列中的每个规划轨迹点依次引导车辆,基于坐标信息和姿态信息进行横向控制,基于路程进行纵向控制。
10.一种基于点云与视觉融合的对位系统,其特征在于,所述系统包括:
环境采集模块,在到达导航路径的终点之前,采集环境图像,进行图像识别,获得预设对位特征物体代表的图像区域和对应的激光点云信息;
坐标定位模块,基于激光点云信息获得所述对位特征物体在车体坐标系下的目标坐标;
轨迹规划模块,将所述目标坐标投影到里程计坐标系,获得规划轨迹点序列;
行驶引导模块,基于所述规划轨迹点序列引导车辆驶向所述对位特征物体。
11.一种基于点云与视觉融合的对位设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至9中任一项所述的基于点云与视觉融合的对位方法的步骤。
12.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求1至9中任一项所述的基于点云与视觉融合的对位方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310976005.7A CN117008613A (zh) | 2023-08-04 | 2023-08-04 | 基于点云与视觉融合的对位方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310976005.7A CN117008613A (zh) | 2023-08-04 | 2023-08-04 | 基于点云与视觉融合的对位方法、系统、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117008613A true CN117008613A (zh) | 2023-11-07 |
Family
ID=88566830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310976005.7A Pending CN117008613A (zh) | 2023-08-04 | 2023-08-04 | 基于点云与视觉融合的对位方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117008613A (zh) |
-
2023
- 2023-08-04 CN CN202310976005.7A patent/CN117008613A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102581263B1 (ko) | 위치 추적 방법, 장치, 컴퓨팅 기기 및 컴퓨터 판독 가능한 저장 매체 | |
KR102628778B1 (ko) | 위치결정을 위한 방법, 컴퓨팅 기기, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램 | |
EP3306429B1 (en) | Position estimation device and position estimation method | |
CN108628324B (zh) | 基于矢量地图的无人车导航方法、装置、设备及存储介质 | |
KR101539270B1 (ko) | 충돌회피 및 자율주행을 위한 센서융합 기반 하이브리드 반응 경로 계획 방법, 이를 수행하기 위한 기록 매체 및 이동로봇 | |
CN110609570A (zh) | 一种基于无人机的自主避障巡检方法 | |
US20180050694A1 (en) | Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free | |
US20210365038A1 (en) | Local sensing based autonomous navigation, and associated systems and methods | |
KR102331000B1 (ko) | 자율주행차량의 관심 대상 신호등을 특정하기 위한 방법 및 이를 이용한 컴퓨팅 장치 | |
CN110825111A (zh) | 适用于高架仓库货物盘点的无人机控制方法、货物盘点方法、装置、服务器及存储介质 | |
CN112286049A (zh) | 运动轨迹预测方法和装置 | |
WO2020248210A1 (en) | Roadmodel manifold for 2d trajectory planner | |
CN110988949A (zh) | 定位方法、定位装置、计算机可读存储介质与可移动设备 | |
CN111857114A (zh) | 一种机器人编队移动方法、系统、设备和存储介质 | |
US20230205234A1 (en) | Information processing device, information processing system, method, and program | |
CN113525382A (zh) | 车辆控制装置及存储介质 | |
CN112925302A (zh) | 机器人位姿控制方法和装置 | |
CN117008613A (zh) | 基于点云与视觉融合的对位方法、系统、设备及存储介质 | |
CN116224396A (zh) | 基于点云的岸桥区域导航方法、系统、设备及存储介质 | |
US20220315028A1 (en) | Vehicle control device, storage medium for storing computer program for vehicle control, and method for controlling vehicle | |
CN116002529A (zh) | 基于起重设备特征的对位方法、系统、设备及存储介质 | |
JPH1139464A (ja) | 車両用画像処理装置 | |
CN113138594B (zh) | 自动驾驶方法及装置 | |
WO2020248209A1 (en) | 3d odometry in 6d space with roadmodel 2d manifold | |
CN114578821A (zh) | 移动机器人的脱困方法、移动机器人及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |