CN110780325B - 运动对象的定位方法及装置、电子设备 - Google Patents
运动对象的定位方法及装置、电子设备 Download PDFInfo
- Publication number
- CN110780325B CN110780325B CN201910784227.2A CN201910784227A CN110780325B CN 110780325 B CN110780325 B CN 110780325B CN 201910784227 A CN201910784227 A CN 201910784227A CN 110780325 B CN110780325 B CN 110780325B
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- local coordinate
- moving object
- information
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000006243 chemical reaction Methods 0.000 claims abstract description 35
- 230000008569 process Effects 0.000 claims abstract description 24
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 14
- 238000005259 measurement Methods 0.000 claims description 23
- 230000008447 perception Effects 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000004888 barrier function Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 4
- 230000004807 localization Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 10
- 238000005516 engineering process Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 238000013473 artificial intelligence Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004873 anchoring Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
- G01S19/47—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Navigation (AREA)
Abstract
本公开提供一种运动对象的定位方法及装置、电子设备;涉及自动驾驶处理技术领域。运动对象的定位方法包括:在运动对象的运动过程中,每间隔预设时长,以运动对象的当前位置重新确定一坐标系,得到多个局部坐标系;在第i个局部坐标系中,获取运动对象的分段定位信息;计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,其中,i、j均为正整数;根据坐标转化关系和分段定位信息,确定运动对象在任意一个局部坐标系中的目标定位信息。相较于相关技术,本技术方案不依赖高精度地图或复杂算法,有效地降低了定位复杂度。同时,本方案提供的定位方式的灵活程度较高。
Description
技术领域
本公开涉及自动驾驶技术领域,具体而言,涉及一种运动对象的定位方法、运动对象的定位装置,以及实现上述运动对象的定位方法的电子设备。
背景技术
自动驾驶的定位方式,一般指的是利用全球导航卫星系统(Global NavigationSatellite System,简称:GNSS)生产的定位信息,来对车辆位置进行全局锚定。另外,可以配合高精地图确定周边物体的相对距离位置关系,通过即时定位与地图构建(Simultaneous Localization and Mapping,简称:SLAM)技术对车辆可视范围内的物体进行识别和相对位置确认。进而通过类似后端回环优化的方式,将GNSS、IMU、激光雷达及高精地图等进行融合定位,从而辅助实现车辆对周边环境的感知和整体路线的规划和决策处理。
然而,相关技术提供的方案存在定位方式的算法复杂程度较高。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种运动对象的定位方法、运动对象的定位装置、电子设备,进而在一定程度上克服由于相关技术中运动对象的定位效率低的问题。
根据本公开的第一方面,提供一种运动对象的定位方法,上述方法包括:在运动对象的运动过程中,每间隔预设时长,以上述运动对象的当前位置重新确定一坐标系,得到多个局部坐标系;在第i个局部坐标系中,获取上述运动对象的分段定位信息,其中,i为正整数;计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,其中,j为正整数;以及,根据上述坐标转化关系和上述分段定位信息,确定上述运动对象在任意一个局部坐标系中的目标定位信息。
在本公开的一种示例性实施例中,基于前述实施例,上述在第i个局部坐标系中,获取上述运动对象的分段定位信息,包括:
通过设置在上述运动对象上的惯性定位单元,获取在上述第i个局部坐标系中的惯性信息;通过设置在上述运动对象上的轮速传感器,获取在上述第i个局部坐标系中的速度信息;以及,根据上述惯性信息和上述速度信息,计算上述运动对象在上述第i个局部坐标系中的定位信息为上述分段定位信息。
在本公开的一种示例性实施例中,基于前述实施例,上述计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,包括:
对于上述运动对象在上述第j+1个局部坐标系中的任意一目标点位点,获取上述目标定位点在上述第j+1个局部坐标系中的第一坐标信息;以及,根据上述第一坐标信息和上述目标定位点在上述第j+1个局部坐标系中的第二坐标信息,确定上述第j个局部坐标系和上述第j+1个局部坐标系之间坐标转换关系。
在本公开的一种示例性实施例中,基于前述实施例,在上述根据上述坐标转化关系和上述分段定位信息,确定上述运动对象在任意一个局部坐标系中的目标定位信息,包括:
根据上述坐标转化关系和上述分段定位信息,确定上述运动对象在以运动起点为坐标原点的局部坐标系中的目标定位信息。
在本公开的一种示例性实施例中,基于前述实施例,上述运动对象包括:自动驾驶车辆、非自动驾驶车辆和移动机器人。
在本公开的一种示例性实施例中,基于前述实施例,上述运动对象的定位方法还包括:
获取设置在上述运动对象中的惯性测量单元的测量精度;以及,根据上述测量精度确定上述预设时长。
在本公开的一种示例性实施例中,基于前述实施例,上述运动对象的定位方法还包括:
在上述运动对象的运动过程中,通过摄像单元和传感单元中的至少一种,获取距离上述运动对象预设距离内的障碍物;
在所述第i个局部坐标系中,获取上述障碍物的定位信息,以实现上述运动对象对周围环境的感知。
在本公开的一种示例性实施例中,基于前述实施例,在上述第i个局部坐标系中,获取上述障碍物的定位信息,包括:
通过卡尔曼滤波算法在上述第i个坐标系中获取上述障碍物的定位信息。
根据本公开的第二方面,提供了一种运动对象的定位装置,上述装置包括:
局部坐标系确定模块,被配置为:在运动对象的运动过程中,每间隔预设时长,以上述运动对象的当前位置重新确定一坐标系,得到多个局部坐标系;
分段定位信息获取模块,被配置为:在第i个局部坐标系中,获取上述运动对象的分段定位信息,其中,i为正整数;
转换关系计算模块,被配置为:计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,其中,j为正整数;
目标定位信息确定模块,被配置为:根据上述坐标转化关系和上述分段定位信息,确定上述运动对象在任意一个局部坐标系中的目标定位信息。
在本公开的一种示例性实施例中,基于前述实施例,上述分段定位信息获取模块,局部被配置为:
通过设置在上述运动对象上的惯性定位单元,获取在上述第i个局部坐标系中的惯性信息;通过设置在上述运动对象上的轮速传感器,获取在上述第i个局部坐标系中的速度信息;以及,根据上述惯性信息和上述速度信息,计算上述运动对象在上述第i个局部坐标系中的定位信息为上述分段定位信息。
在本公开的一种示例性实施例中,基于前述实施例,上述转换关系计算模块,被具体配置为:
对于上述运动对象在上述第j+1个局部坐标系中的任意一目标点位点,获取上述目标定位点在上述第j+1个局部坐标系中的第一坐标信息;以及,根据上述第一坐标信息和上述目标定位点在上述第j+1个局部坐标系中的第二坐标信息,确定上述第j个局部坐标系和上述第j+1个局部坐标系之间坐标转换关系。
在本公开的一种示例性实施例中,基于前述实施例,上述目标定位信息确定模块,被具体配置为:
根据上述坐标转化关系和上述分段定位信息,确定上述运动对象在以运动起点为坐标原点的局部坐标系中的目标定位信息。
在本公开的一种示例性实施例中,基于前述实施例,上述运动对象包括:自动驾驶车辆、非自动驾驶车辆和移动机器人。
在本公开的一种示例性实施例中,基于前述实施例,上述运动对象的定位装置还包括:预设时长确定模块。其中,
上述预设时长确定模块,被配置为:获取设置在上述自动驾驶车辆中的惯性测量单元的测量精度;以及,根据上述测量精度确定上述预设时长。
在本公开的一种示例性实施例中,基于前述实施例,上述运动对象的定位装置还包括:周围环境感知模块。其中:
上述周围环境感知模块,包括:障碍物获取子模块以及定位信息确定子模块。其中:
上述障碍物获取子模块,被配置为:在上述运动对象的运动过程中,通过摄像单元和传感单元中的至少一种,获取距离上述运动对象预设距离内的障碍物;以及,
上述定位信息确定子模块,被配置为:在所述第i个局部坐标系中,获取上述障碍物的定位信息,以实现上述运动对象对周围环境的感知。
在本公开的一种示例性实施例中,基于前述实施例,上述定位信息确定子模块,被具体配置为:
通过卡尔曼滤波算法在上述第i个坐标系中获取上述障碍物的定位信息。
根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,上述计算机程序被处理器执行时实现上述第一方面中任意实施例上述的运动对象的定位方法。
根据本公开的第四方面,提供一种电子设备,包括:处理器;以及存储器,用于存储上述处理器的可执行指令;其中,上述处理器配置为经由执行上述可执行指令来执行上述第一方面中任意实施例上述的运动对象的定位方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开的一示例实施方式所提供的运动对象的定位方法中,在运动对象的运动过程中,动态确定多个局部坐标系。在每个局部坐标系中,方便地获取上述运动对象的分段定位信息,并且,计算相邻局部坐标系之间坐标转换关系。进而,根据上述坐标转化关系和每个局部坐标系中的分段定位信息,推算运动对象在任意一个局部坐标系中的目标定位信息。例如,推算运动对象在以起点为坐标原点的局部坐标系中的定位信息,并可以确定全局定位信息。从而,相较于相关技术,本技术方案不依赖高精度地图或复杂算法,有效地降低了定位复杂度。同时,本方案提供的定位方式的灵活程度较高。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用本公开实施例的一种运动对象的定位方法及装置的示例性系统架构的示意图;
图2示意性示出了根据本公开的一实施例的运动对象的定位方法的流程图;
图3示意性示出了根据本公开的一实施例的局部坐标系的确定方法的场景图;
图4示意性示出了根据本公开的一实施例的定位信息的确定方法的流程图;
图5示意性示出了根据本公开的一实施例的转换关系的确定方法的流程图;
图6示意性示出了根据本公开的一实施例的对周围环境的感知方法的流程图;
图7示意性示出了根据本公开的一实施例的运动对象的定位装置的结构图;
图8示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
人工智能(Artificial Intelligence,简称:AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
机器学习(Machine Learning,简称:ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
自动驾驶技术通常包括高精地图、环境感知、行为决策、路径规划、运动控制等技术,自定驾驶技术有着广泛的应用前景。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、自动驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本公开实施例提供的方案涉及人工智能的自动驾驶技术、机器学习等技术和计算机视觉技术,具体通过如下实施例进行说明:
图1示出了可以应用本公开实施例的一种运动对象的定位方法及装置的示例性应用环境的系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本公开实施例所提供的运动对象的定位方法一般由服务器105执行,相应地,运动对象的定位装置一般设置于服务器105中。但本领域技术人员容易理解的是,本公开实施例所提供的运动对象的定位方法也可以由终端设备101、102、103执行,相应的,运动对象的定位装置也可以设置于终端设备101、102、103中,本示例性实施例中对此不做特殊限定。
举例而言,在一种示例性实施例中,可以是终端设备101、102、103获取要间隔的预设时长并发送至服务器105,从而,服务器105在运动对象的运动过程中,每间隔预设时长,以所述运动对象的当前位置重新确定一坐标系,得到多个局部坐标系;然后,服务器105在第i个局部坐标系中,获取所述运动对象的分段定位信息,其中,i为正整数。进一步地,服务器105计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,其中,j为正整数;服务器105再根据所述坐标转化关系和所述分段定位信息,确定所述运动对象在任意一个局部坐标系中的目标定位信息。
示例性的,服务器105还可以将上述目标定位信息发送至终端设备101、102、103,终端设备101、102、103,从而,用户可以通过终端设备101、102、103方便地观看上述目标定位信息,从而方便地远程了解运动对象的定位信息。
示例性的,一种使用场景可以是:自动驾驶车辆从出发点S至终点的过程中的定位方式。
本技术方案旨在解决相关技术中GNSS和高精地图实现定位的过程中,定位算法较为复杂的问题。
以下对本公开实施例的技术方案进行详细阐述:
图2示意性示出了根据本公开的一实施例的运动对象的定位方法的流程图。具体的,参考图2,该图所示实施例包括:
步骤S210,在运动对象的运动过程中,每间隔预设时长,以所述运动对象的当前位置重新确定一坐标系,得到多个局部坐标系;
步骤S220,在第i个局部坐标系中,获取所述运动对象的分段定位信息,其中,i为正整数;
步骤S230,计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,其中,j为正整数;以及,
步骤S240,根据所述坐标转化关系和所述分段定位信息,确定所述运动对象在任意一个局部坐标系中的目标定位信息。
在图2所示实施例提供的技术方案中,在运动对象的运动过程中,动态确定多个局部坐标系。在每个局部坐标系中,方便地获取上述运动对象的分段定位信息,并且,计算相邻局部坐标系之间坐标转换关系。进而,根据上述坐标转化关系和每个局部坐标系中的分段定位信息,推算运动对象在任意一个局部坐标系中的目标定位信息。例如,推算运动对象在以起点为坐标原点的局部坐标系中的定位信息,并可以确定全局定位信息。从而,相较于相关技术,本技术方案不依赖高精度地图或复杂算法,有效地降低了定位复杂度。同时,本方案提供的定位方式的灵活程度较高。
以下对图2所示实施例中各个步骤的具体实施方式进行详细阐述:
在示例性的实施例中,上述运动对象可以是自动驾驶车辆、非自动驾驶车辆或者移动机器人等。本技术方案可以实现运动对象在运行过程中的定位,以及通过感知运动对象的周围环境信息实现局部路径优化。从而实现自动驾驶、辅助驾驶者实现智能驾驶,以及满足移动机器人的自动移动等。
在示例性的实施例中,上述运动对象以自动驾驶车辆为例进行说明。示例性的,图3示意性示出了根据本公开的一实施例的局部坐标系的确定方法的场景图,具体可用于解释步骤S210的具体实施方式。
上述局部坐标系的确定方法可以是:
示例性的,确定每一局部坐标系时,具体可以将当时的自车坐标系作为以局部坐标系。更具体的,一般是以车辆后轴中心或者车辆重心为坐标原点建立坐标系。需要说明的是,本实施例中的局部坐标系与自车坐标系不同的是:自车坐标系跟随车辆的运动其坐标原点是跟随车辆运动的,但是本实施例所述的局部坐标系的坐标原点,在确定之后的一段时间内(即,上述预设时长内),不会跟随车辆的运动其坐标原点是跟随车辆运动。
参考图3,在自动驾驶车辆30的运动过程的t0时刻时,自动驾驶车辆30位于位置A点。则以当前位置A点为原点O1确定一局部坐标系,记为记录frame_id=0。示例性的,上述A点可以是自动驾驶车辆30的后轴中心,也可以是自动驾驶车辆30的重心处。示例性的,可以以车辆的行驶方向作为此局部坐标系frame_id=0的X轴正方向,以车辆的行驶方向的左侧作为此局部坐标系的Y轴正方向,以垂直车辆底盘向上方向作为此局部坐标系的Z轴正方向。
示例性的,在t0时刻,自动驾驶车辆30的定位信息(在局部坐标系frame_id=0中)包括:坐标为(00,00,00)、姿态角也为(00,00,00)。进一步地,在t0时刻之后的一段时间内,自动驾驶车辆30的定位信息将基于局部坐标系frame_id=0进行表示。例如,在“t0+ε”时刻,其定位信息包括:基于局部坐标系frame_id=0表示的坐标:(X0a,Y0a,Z0a),以及基于局部坐标系frame_id=0表示的姿态角:(θ0a,ψ0a,Φ0a)。其中,θ0a表示车辆的俯仰角在局部坐标系frame_id=0中的表示,ψ0a表示车辆的偏航角在局部坐标系frame_id=0中的表示,Φ0a表示车辆的翻滚角在局部坐标系frame_id=0中的表示。
上述局部坐标系的更新方法可以是:
在自动驾驶车辆30的运动过程中,从上述t0时刻起,经过一段时间dt后,车道到达B点(如,t1时刻)。示例性的,自动驾驶车辆30在B点定位信息包括:基于局部坐标系frame_id=0表示的坐标:(X0b,Y0b,Z0b),以及基于局部坐标系frame_id=0表示的姿态角:(θ0b,ψ0b,Φ0b)。当然,上述姿态角还可以通过四元数来表达。
同时,以当前位置B点为原点O2确定另一局部坐标系,记为记录frame_id=1。同样,上述B点可以是自动驾驶车辆30的后轴中心,也可以是自动驾驶车辆30的重心处。示例性的,可以以车辆的行驶方向作为此局部坐标系frame_id=1的X轴正方向,以车辆的行驶方向的左侧作为此局部坐标系的Y轴正方向,以垂直车辆底盘向上方向作为此局部坐标系的Z轴正方向。
示例性的,在t1时刻,自动驾驶车辆30的在局部坐标系frame_id=1定位信息包括:坐标为(01,01,01)、姿态角也为(01,01,01)。进一步地,在t1时刻之后的一段时间内,自动驾驶车辆30的定位信息将基于局部坐标系frame_id=1进行表示,直至确定下一个局部坐标系
示例性的,可以每经过dt时间,就重置当前时刻的车辆位置当做新的原点,其中,局部坐标系frame_id逐渐递增,由此形成一个动态更新的局部坐标系统。
通过以上实施例可以看出,在自动驾驶车辆30的运动过程中,局部坐标系是不断被更新的,并且每更新一次,车辆的定位信息将基于更新后局部坐标系进行表示。
在示例性的实施例中,在自动驾驶车辆的运动过程中产生的每个局部坐标系中,获取自动驾驶车辆的分段定位信息(即,航迹推算)。示例性的,图4示意性示出了根据本公开的一实施例的定位信息的确定方法的流程图,具体可用于解释步骤S220的具体实施方式。参考图4,该图所示实施例包括步骤S410-步骤S430。
在步骤S410中,通过设置在所述运动对象上的惯性定位单元,获取在所述第i个局部坐标系中的惯性信息。
在示例性的实施例中,通过IMU测量自动驾驶车辆在三维空间中的角速度和加速度。其中,一个IMU包含了三个单轴的加速度计和三个单轴的陀螺,加速度计检测物体在载体坐标系统独立三轴的加速度信号,而陀螺检测载体相对于导航坐标系的角速度信号,测量物体在三维空间中的角速度和加速度。进而对速度或加速度信号进行积分以解算出自动驾驶车辆的姿态。
示例性的,可以将IMU设置于车辆后轴中心或者车辆重心处。
示例性的,为了提高可靠性,还可以为每个轴配备更多的传感器。
在步骤S420中,通过设置在所述运动对象上的轮速传感器,获取在所述第i个局部坐标系中的速度信息。
在示例性的实施例中,轮速传感器是用来测量车辆车轮转速的传感器。常用的轮速传感器主要有:磁电式轮速传感器、霍尔式轮速传感器。
在步骤S430中,根据所述惯性信息和所述速度信息,计算所述运动对象在所述第i个局部坐标系中的定位信息为所述分段定位信息。
在示例性的实施例中,以二维的局部坐标系(OXY)中坐标信息的推算为例进行说明:可以通过三角函数法计算车辆在第i个局部坐标系中的坐标,具体公式如下:
xn=xn-1+ΔL×cos(headingn-1)
yn=yn-1+ΔL×sin(headingn-1)
其中,(xn,yn)表示第n时刻车辆在第i坐标系中坐标;(xn-1,yn-1)表示第n时刻车辆在第i坐标系中坐标;ΔL表示单位采样时间内车辆移动距离;headingn-1表示第n-1时刻车辆的瞬时惯导航向。ΔL是通过轮速传感器对车辆运动状态进行测量得到的;headingn-1或headingn是通过IMU对车辆运动状态进行测量得到的。
示例性的,为了提升航迹推算的准确度,上述ΔL可以取左轮单位时间内的行驶距离和右轮该单位时间内的行驶距离的平均值。
需要说明的是,为了提升定位准确度,上述单位时间取较小的数值。例如:上述单位时间取值为50毫秒、20毫秒或者更小的数值。
在示例性的实施例中,在自动驾驶车辆的运动过程中,可以每间隔预设时长更新一次局部坐标系。其中,上述预设时长可以根据IMU的测量精度确定。则在本实施例提供的技术方案中,在执行上述步骤S210之前,还需执行获取设置在所述自动驾驶车辆中的惯性测量单元的测量精度;以及,根据所述测量精度确定所述预设时长。
示例性的,上述预设时长与IMU的测量精度成正比。若IMU的测量精度越高,则上述预设时长相对较大。根据IMU的测量精度确定局部坐标系动态更新的周期,可以有效地使自车的头指向在短期内变化较小,从而有利于减少累计误差。需要说明的是,本实施例不对上述预设时长的具体取值进行限定,可以根据实际需要设置上述预设时长的取值。
在示例性的实施例中,获取自动驾驶车辆的运动过程中产生的每个局部坐标系中的自动驾驶车辆的分段定位信息(即,航迹推算),如下表所示。
表1
示例性的,图5示意性示出了根据本公开的一实施例的转换关系的确定方法的流程图,具体可用于解释步骤S230的具体实施方式。参考图5,该图所示实施例包括:
步骤S510,对于所述运动对象在所述第j+1个局部坐标系中的任意一目标点位点,获取所述目标定位点在所述第j+1个局部坐标系中的第一坐标信息;以及,在步骤S520中,根据所述第一坐标信息和所述目标定位点在所述第j+1个局部坐标系中的第二坐标信息,确定所述第j个局部坐标系和所述第j+1个局部坐标系之间坐标转换关系。
示例性的,对于点p,其中puvw是uvw坐标系下的坐标,pxyz是xyz坐标系下的坐标。uvw坐标系的坐标原点在xyz坐标系下的坐标为e=(xe,ye,ze);uvw坐标系的的基地向量在xyz坐标系下分别是u=(xu,yu,zu),v=(xv,yv,zv),w=(xw,yw,zw)。则,uvw坐标系和uvw坐标系之间的坐标转换矩阵可以表示为:
以及,
在示例性的实施例中,继续参考图2,在获取每个局部坐标系中运动对象的分段定位信息以及确定相邻局部坐标系之间的坐标转换关系之后,在步骤S240中,根据所述坐标转化关系和所述分段定位信息,确定所述运动对象在任意一个局部坐标系中的目标定位信息。
在示例性的实施例中,根据第k个局部坐标系与第k+1个局部坐标系之间的坐标转换矩阵M0,可以将第k+1个局部坐标系中的分段定位信息Tk+1转换至第k个局部坐标系中,得到T(k+1)-k。示例性的,根据第k+2局部坐标系与第k+1个局部坐标系之间的坐标转换矩阵M1,可以先将第k+2局部坐标系中的分段定位信息Tk+2转换至第k+1个局部坐标系中,得到T(k+2)-(k+1);进一步地,根据上述坐标转换矩阵M0,再将第k+1个局部坐标系中的T(k+2)-(k+1)转换至第k个局部坐标系中,得到T(k+2)-k。
可见,根据不同的坐标转换矩阵,可以将所有分段定位信息转换至以运动起点为坐标原点的局部坐标系中,从而得到全局定位信息。并且,相较于相关技术从上帝视角来描述自动驾驶车辆的运动信息,本技术方案是通过近似的自车视角来描述自动驾驶车辆的运动信息。
通过上述实施例提供的技术方案,通过动态更新原点的局部坐标系统,在每个局部坐标系中记录自车的定位信息。通过不同局部坐标系之间的转换关系将上述分段定位信息转换至任一局部坐标系中,进而能够实现类似于全局坐标系中描述自车的运动信息的技术效果,却不依赖GPS和高精地图。相较于相关技术中,本技术方案算法复杂程度较低。
同时,由于确定每个局部坐标系时是基于自车坐标系确定的,因而本技术方式提供的定位方法还兼具自车坐标系的优点,具体可以体现在:在误差允许的范围内,在局部坐标系中便能够完成对车道线信息的参数化,而无需像相关技术中提供的方案:车道线路参数化须转换至自车坐标系中进行。从而有效减轻计算资源的计算负担,有利于计算资源的合理利用。
另外,本技术方式提供的局部坐标系还兼具惯性坐标系和自车坐标系(非惯性坐标系)的优点。
具体的,由于本技术方案提供的局部坐标系是每次更新后持续上述预设时长的,因而,局部坐标系类似于全局坐标系属于惯性坐标系。在惯性坐标系中,周围环境中的物体(如,障碍物等)的运动符合牛顿运动定律。因此,本技术方案可直接通过局部坐标系对障碍物进行定位,进而实现对自动驾驶车辆周围环境的感知。
在示例性的实施例中,图6示意性示出了根据本公开的一实施例的对周围环境的感知方法的流程图。参考图6,该图所示实施例包括步骤S610和步骤S620。
在步骤S610中,在所述运动对象的运动过程中,通过摄像单元和传感单元中的至少一种,获取距离所述运动对象预设距离内的障碍物。
在示例性的实施例中,上述预设距离根据实际需要确定,在此不对其进行限定。其中,距离自动驾驶车辆预设距离内的范围属于上述“周围环境”。在上述周围环境的中的物体属于上述自动驾驶车辆的障碍物。示例性的,上述障碍物可能是红绿灯、车辆周围的行人、其他车辆和台阶等。
在示例性的实施例中,为自动驾驶车辆设置摄像单元和传感单元,以相当于自动驾驶车辆的眼睛和耳朵,进而对行驶过程中车辆周围环境中可能存在的障碍物进行感知。
在示例性的实施例中,由于单一传感器只能对被测对象(即上述障碍物)的某个方面或者某个特征进行测量,不足以满足对车辆周围的被测对象的了解。因而,可采用多个传感器同时对被测对象进行测量,将所测得的数据经过数据融合处理后,可以提取出可信度较高的有用信号。
在示例性的实施例中,自动驾驶车辆的周围环境感知可以以雷达等主动型测距传感器为主,被动型测距传感器为辅,采用信息融合的方法确定自动驾驶车辆预设距离内是否存在障碍物,具体的存在的障碍物的类型。
在步骤S620中,在所述第i个局部坐标系中,获取所述障碍物的定位信息,以实现所述运动对象对周围环境的感知。
在示例性的实施例中,鉴于确定每一局部坐标系时,将当时的自车坐标系作为以局部坐标系。即以车辆后轴中心或者车辆重心为坐标原点建立坐标系。所以,上述步骤610中确定的障碍物的定位信息可以是基于局部坐标系进行表示的。例如,在第j个局部坐标系中,自动驾驶车辆处于S位置时,车辆前方存在障碍物H。其中,障碍物的坐标信息可以表示为(Xs,Ys,Zs)。
具体的,可以通过卡尔曼滤波(Kalman Fliter,简称:KF)算法或扩展的卡尔曼滤波(Extended Kalman Filter,简称:EKF)算法实现对障碍物的追踪(tracking),从而确定障碍物确定的速度、加速度、方向等信息。进一步的,可以确定障碍物在某一时刻在局部坐标系中定位信息,最终实现对无人驾驶车辆周围环境的感知。
需要说明的是,本技术方案中局部坐标系的确定时刻是根据自车坐标系确定的。但是,由于自车坐标系跟随车辆的运动其坐标原点是跟随车辆运动的,但是本实施例所述的局部坐标系的坐标原点,在确定之后的一段时间内(即,上述预设时长内),不会跟随车辆的运动其坐标原点是跟随车辆运动。因此,本技术方案中局部坐标系与自车坐标系相比,具有以下优点:自车坐标系完全忽略的自车运动,因而在自车坐标系下描述周围障碍物的运动时是不符合物理规律的。然而,本技术方案提供的局部坐标系是一个相对客观的坐标系,能够准确的记录自车和周围环境的运动信息,从而便于建模和运动跟踪。
可见,通过本技术方案可以不依赖GPS或高精地图来实现对运动对象的全局定位。同时,还可以在每个局部坐标系中实现对运动对象周围环境的感知。
本技术方案提供的实施例中,通过局部坐标系,方便地实现对自动驾驶车辆的定位以及周围环境中障碍物的定位,进一步地,有利于提升自动驾驶车辆行驶路线的决策准确度。
本领域技术人员可以理解实现上述实施方式的全部或部分步骤被实现为由处理器(包含CPU和GPU)执行的计算机程序。在该计算机程序被处理器执行时,执行本公开提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
进一步的,本示例实施方式中,还提供了一种运动对象的定位装置。示例性的,图7示意性示出了根据本公开的一实施例的运动对象的定位装置的结构图参考图7所示,该运动对象的定位装置700包括:局部坐标系确定模块701、分段定位信息获取模块702、转换关系计算模块703以及目标定位信息确定模块704。其中:
上述局部坐标系确定模块701,被配置为:在运动对象的运动过程中,每间隔预设时长,以上述运动对象的当前位置重新确定一坐标系,得到多个局部坐标系;
上述分段定位信息获取模块702,被配置为:在第i个局部坐标系中,获取上述运动对象的分段定位信息,其中,i为正整数;
上述转换关系计算模块703,被配置为:计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,其中,j为正整数;
上述目标定位信息确定模块704,被配置为:根据上述坐标转化关系和上述分段定位信息,确定上述运动对象在任意一个局部坐标系中的目标定位信息。
在本公开的一种示例性实施例中,基于前述实施例,上述分段定位信息获取模块702,局部被配置为:
通过设置在上述运动对象上的惯性定位单元,获取在上述第i个局部坐标系中的惯性信息;通过设置在上述运动对象上的轮速传感器,获取在上述第i个局部坐标系中的速度信息;以及,根据上述惯性信息和上述速度信息,计算上述运动对象在上述第i个局部坐标系中的定位信息为上述分段定位信息。
在本公开的一种示例性实施例中,基于前述实施例,上述转换关系计算模块703,被具体配置为:
对于上述运动对象在上述第j+1个局部坐标系中的任意一目标点位点,获取上述目标定位点在上述第j+1个局部坐标系中的第一坐标信息;以及,根据上述第一坐标信息和上述目标定位点在上述第j+1个局部坐标系中的第二坐标信息,确定上述第j个局部坐标系和上述第j+1个局部坐标系之间坐标转换关系。
在本公开的一种示例性实施例中,基于前述实施例,上述目标定位信息确定模块704,被具体配置为:
根据上述坐标转化关系和上述分段定位信息,确定上述运动对象在以运动起点为坐标原点的局部坐标系中的目标定位信息。
在本公开的一种示例性实施例中,基于前述实施例,上述运动对象包括:自动驾驶车辆、非自动驾驶车辆和移动机器人。
在本公开的一种示例性实施例中,基于前述实施例,上述运动对象的定位装置700还包括:预设时长确定模块705。其中,
上述预设时长确定模块705,被配置为:获取设置在上述自动驾驶车辆中的惯性测量单元的测量精度;以及,根据上述测量精度确定上述预设时长。
在本公开的一种示例性实施例中,基于前述实施例,上述运动对象的定位装置700还包括:周围环境感知模块706。其中:
上述局部路线优化模块706,包括:障碍物获取子模块7061、以及定位信息确定子模块7062。其中:
上述属性获取子模块7061,被配置为:在上述运动对象的运动过程中,通过摄像单元和传感单元中的至少一种,获取距离上述运动对象预设距离内的障碍物;以及,
上述定位信息确定子模块7062,被配置为:在所述第i个局部坐标系中,获取上述障碍物的定位信息,以实现上述运动对象对周围环境的感知。
在本公开的一种示例性实施例中,基于前述实施例,上述定位信息确定子模块7062,被具体配置为:
通过卡尔曼滤波算法在上述第i个坐标系中获取上述障碍物的定位信息。
上述运动对象的定位装置中各模块或单元的具体细节已经在对应的运动对象的定位方法中进行了详细的描述,因此此处不再赘述。
图8示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图8示出的电子设备的计算机系统800仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,计算机系统800包括处理器801,其中处理器801可以包含:图形处理单元(Graphics Processing Unit,GPU)、中央处理单元(Central Processing Unit,CPU),其可以根据存储在只读存储器(Read-Only Memory,ROM)802中的程序或者从存储部分808加载到随机访问存储器(Random Access Memory,RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统操作所需的各种程序和数据。处理器(GPU/CPU)801、ROM802以及RAM 803通过总线804彼此相连。输入/输出(Input/Output,I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid CrystalDisplay,LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN(Local Area Network,局域网)卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器(GPU/CPU)801执行时,执行本申请的系统中限定的各种功能。在一些实施例中,计算机系统800还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
需要说明的是,本公开实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact DiscRead-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
例如,所述的电子设备可以实现如图2中所示的:步骤S210,在运动对象的运动过程中,每间隔预设时长,以所述运动对象的当前位置重新确定一坐标系,得到多个局部坐标系;步骤S220,在第i个局部坐标系中,获取所述运动对象的分段定位信息,其中,i为正整数;步骤S230,计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,其中,j为正整数;以及,步骤S240,根据所述坐标转化关系和所述分段定位信息,确定所述运动对象在任意一个局部坐标系中的目标定位信息。
又如,所述的电子设备可以实现如图3至图6中所示的各个步骤。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (16)
1.一种运动对象的定位方法,其特征在于,所述方法包括:
在运动对象的运动过程中,每间隔预设时长,以所述运动对象的当前位置重新确定一坐标系,得到多个局部坐标系;
通过设置在所述运动对象上的惯性定位单元,获取在第i个局部坐标系中的惯性信息;通过设置在所述运动对象上的轮速传感器,获取在所述第i个局部坐标系中的速度信息;根据所述惯性信息和所述速度信息,计算所述运动对象在所述第i个局部坐标系中的定位信息为分段定位信息,其中,i为正整数;
计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,其中,j为正整数;
根据所述坐标转换关系将所述分段定位信息转换至任意一个局部坐标系中,确定所述运动对象在任意一个局部坐标系中的目标定位信息。
2.根据权利要求1所述的运动对象的定位方法,其特征在于,所述计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,包括:
对于所述运动对象在所述第j+1个局部坐标系中的任意一目标点位点,获取所述目标定位点在所述第j+1个局部坐标系中的第一坐标信息;
根据所述第一坐标信息和所述目标定位点在所述第j+1个局部坐标系中的第二坐标信息,确定所述第j个局部坐标系和所述第j+1个局部坐标系之间坐标转换关系。
3.根据权利要求1所述的运动对象的定位方法,其特征在于,在所述根据所述坐标转换关系将所述分段定位信息转换至任意一个局部坐标系中,确定所述运动对象在任意一个局部坐标系中的目标定位信息,包括:
根据所述坐标转换关系将所述分段定位信息转换至以运动起点为坐标原点的局部坐标系中,确定所述运动对象在以运动起点为坐标原点的局部坐标系中的目标定位信息。
4.根据权利要求1至3中任意一项所述的运动对象的定位方法,其特征在于,所述运动对象包括自动驾驶车辆、非自动驾驶车辆和移动机器人。
5.根据权利要求4所述的运动对象的定位方法,其特征在于,所述方法还包括:
获取设置在所述运动对象中的惯性测量单元的测量精度;
根据所述测量精度确定所述预设时长。
6.根据权利要求4所述的运动对象的定位方法,其特征在于,所述方法还包括:
在所述运动对象的运动过程中,通过摄像单元和传感单元中的至少一种,获取距离所述运动对象预设距离内的障碍物;
在所述第i个局部坐标系中,获取所述障碍物的定位信息,以实现所述运动对象对周围环境的感知。
7.根据权利要求6所述的运动对象的定位方法,其特征在于,在所述第i个局部坐标系中,获取所述障碍物的定位信息,包括:
通过卡尔曼滤波算法在所述第i个局部坐标系中获取所述障碍物的定位信息。
8.一种运动对象的定位装置,其特征在于,所述装置包括:
局部坐标系确定模块,被配置为:在运动对象的运动过程中,每间隔预设时长,以所述运动对象的当前位置重新确定一坐标系,得到多个局部坐标系;
分段定位信息获取模块,被配置为:通过设置在所述运动对象上的惯性定位单元,获取在第i个局部坐标系中的惯性信息;通过设置在所运动对象上的轮速传感器,获取在所述第i个局部坐标系中的速度信息;根据所述惯性信息和所述速度信息,计算所述运动对象在所述第i个局部坐标系中的定位信息为分段定位信息,其中,i为正整数;
转换关系计算模块,被配置为:计算第j个局部坐标系和第j+1个局部坐标系之间坐标转换关系,其中,j为正整数;
目标定位信息确定模块,被配置为:根据所述坐标转换关系将所述分段定位信息转换至任意一个局部坐标系中,确定所述运动对象在任意一个局部坐标系中的目标定位信息。
9.根据权利要求8所述的装置,其特征在于,所述转换关系计算模块,被具体配置为:
对于所述运动对象在所述第j+1个局部坐标系中的任意一目标点位点,获取所述目标定位点在所述第j+1个局部坐标系中的第一坐标信息;以及,根据所述第一坐标信息和所述目标定位点在所述第j+1个局部坐标系中的第二坐标信息,确定所述第j个局部坐标系和所述第j+1个局部坐标系之间坐标转换关系。
10.根据权利要求8所述的装置,其特征在于,所述目标定位信息确定模块,被具体配置为:
根据所述坐标转换关系将所述分段定位信息转换至以运动起点为坐标原点的局部坐标系中,确定所述运动对象在以运动起点为坐标原点的局部坐标系中的目标定位信息。
11.根据权利要求8至10中任意一项所述的装置,其特征在于,上所述运动对象包括:自动驾驶车辆、非自动驾驶车辆和移动机器人。
12.根据权利要求11所述的装置,其特征在于,所述装置还包括:预设时长确定模块;其中,所述预设时长确定模块,被配置为:获取设置在所述自动驾驶车辆中的惯性测量单元的测量精度;以及,根据所述测量精度确定所述预设时长。
13.根据权利要求11所述的装置,其特征在于,所述装置还包括:周围环境感知模块,其中:所述周围环境感知模块,包括:障碍物获取子模块、以及定位信息确定子模块,其中:
所述障碍物获取子模块被配置为:在所述运动对象的运动过程中,通过摄像单元和传感单元中的至少一种,获取距离所述运动对象预设距离内的障碍物;以及,
所述定位信息确定子模块,被配置为:在所述第i个局部坐标系中,获取所述障碍物的定位信息,以实现所述运动对象对周围环境的感知。
14.根据权利要求13所述的装置,其特征在于,所述定位信息确定子模块,被具体配置为:
通过卡尔曼滤波算法在所述第i个局部坐标系中获取所述障碍物的定位信息。
15.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述权利要求1至7中任意一项所述的运动对象的定位方法。
16.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7中任意一项所述的运动对象的定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910784227.2A CN110780325B (zh) | 2019-08-23 | 2019-08-23 | 运动对象的定位方法及装置、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910784227.2A CN110780325B (zh) | 2019-08-23 | 2019-08-23 | 运动对象的定位方法及装置、电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110780325A CN110780325A (zh) | 2020-02-11 |
CN110780325B true CN110780325B (zh) | 2022-07-19 |
Family
ID=69383387
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910784227.2A Active CN110780325B (zh) | 2019-08-23 | 2019-08-23 | 运动对象的定位方法及装置、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110780325B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111216126B (zh) * | 2019-12-27 | 2021-08-31 | 广东省智能制造研究所 | 基于多模态感知的足式机器人运动行为识别方法及系统 |
CN114579679A (zh) * | 2020-12-01 | 2022-06-03 | 中移(成都)信息通信科技有限公司 | 空间定位数据融合方法、系统、设备及计算机存储介质 |
CN113747349A (zh) * | 2021-08-12 | 2021-12-03 | 广东博智林机器人有限公司 | 定位方法、装置、电子设备及存储介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4513378A (en) * | 1981-10-20 | 1985-04-23 | Antkowiak Edward T | High-accuracy navigating apparatus with step-driven projected chart |
CN101685309A (zh) * | 2008-09-24 | 2010-03-31 | 中国科学院自动化研究所 | 多机器人协调队形控制方法 |
CN102706360A (zh) * | 2012-06-11 | 2012-10-03 | 北京航空航天大学 | 一种利用光流传感器和速率陀螺对飞行器状态估计的方法 |
CN103206954A (zh) * | 2013-04-25 | 2013-07-17 | 佳木斯大学 | 一种基于ukf的移动机器人多传感器信息融合方法 |
WO2014204548A1 (en) * | 2013-06-19 | 2014-12-24 | The Boeing Company | Systems and methods for tracking location of movable target object |
CN106168485A (zh) * | 2016-07-18 | 2016-11-30 | 北京方位捷讯科技有限公司 | 步行航迹数据推算方法及装置 |
CN108917751A (zh) * | 2018-03-30 | 2018-11-30 | 北京凌宇智控科技有限公司 | 一种免标定的定位方法及系统 |
CN108955670A (zh) * | 2017-05-25 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 信息获取方法和装置 |
CN109239663A (zh) * | 2017-07-10 | 2019-01-18 | 东芝泰格有限公司 | 定位装置及控制方法、定位系统 |
CN109425365A (zh) * | 2017-08-23 | 2019-03-05 | 腾讯科技(深圳)有限公司 | 激光扫描设备标定的方法、装置、设备及存储介质 |
CN109668553A (zh) * | 2017-10-12 | 2019-04-23 | 韩华迪纷斯株式会社 | 基于惯性的导航设备和基于相对预积分的惯性导航方法 |
CN109975792A (zh) * | 2019-04-24 | 2019-07-05 | 福州大学 | 基于多传感器融合矫正多线激光雷达点云运动畸变的方法 |
CN110118987A (zh) * | 2019-04-28 | 2019-08-13 | 桂林电子科技大学 | 一种定位导航方法、装置及存储介质 |
CN110146910A (zh) * | 2019-05-15 | 2019-08-20 | 重庆大学 | 一种基于gps与激光雷达数据融合的定位方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014172792A1 (en) * | 2013-04-26 | 2014-10-30 | E-Twenty Development Incorporated | Navigation computer system including landmark identifier scanning |
WO2015077514A1 (en) * | 2013-11-20 | 2015-05-28 | Certusview Technologies, Llc | Systems, methods, and apparatus for tracking an object |
WO2016068742A1 (ru) * | 2014-10-28 | 2016-05-06 | Инвенсенс Интернешнл, Инк. | Способ и система позиционирования мобильного терминала внутри зданий |
CN109214980B (zh) * | 2017-07-04 | 2023-06-23 | 阿波罗智能技术(北京)有限公司 | 一种三维姿态估计方法、装置、设备和计算机存储介质 |
CN109916417B (zh) * | 2019-02-20 | 2023-04-11 | 广州市山丘智能科技有限公司 | 一种地图建立方法、装置、计算机设备及其存储介质 |
-
2019
- 2019-08-23 CN CN201910784227.2A patent/CN110780325B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4513378A (en) * | 1981-10-20 | 1985-04-23 | Antkowiak Edward T | High-accuracy navigating apparatus with step-driven projected chart |
CN101685309A (zh) * | 2008-09-24 | 2010-03-31 | 中国科学院自动化研究所 | 多机器人协调队形控制方法 |
CN102706360A (zh) * | 2012-06-11 | 2012-10-03 | 北京航空航天大学 | 一种利用光流传感器和速率陀螺对飞行器状态估计的方法 |
CN103206954A (zh) * | 2013-04-25 | 2013-07-17 | 佳木斯大学 | 一种基于ukf的移动机器人多传感器信息融合方法 |
WO2014204548A1 (en) * | 2013-06-19 | 2014-12-24 | The Boeing Company | Systems and methods for tracking location of movable target object |
CN106168485A (zh) * | 2016-07-18 | 2016-11-30 | 北京方位捷讯科技有限公司 | 步行航迹数据推算方法及装置 |
CN108955670A (zh) * | 2017-05-25 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 信息获取方法和装置 |
CN109239663A (zh) * | 2017-07-10 | 2019-01-18 | 东芝泰格有限公司 | 定位装置及控制方法、定位系统 |
CN109425365A (zh) * | 2017-08-23 | 2019-03-05 | 腾讯科技(深圳)有限公司 | 激光扫描设备标定的方法、装置、设备及存储介质 |
CN109668553A (zh) * | 2017-10-12 | 2019-04-23 | 韩华迪纷斯株式会社 | 基于惯性的导航设备和基于相对预积分的惯性导航方法 |
CN108917751A (zh) * | 2018-03-30 | 2018-11-30 | 北京凌宇智控科技有限公司 | 一种免标定的定位方法及系统 |
CN109975792A (zh) * | 2019-04-24 | 2019-07-05 | 福州大学 | 基于多传感器融合矫正多线激光雷达点云运动畸变的方法 |
CN110118987A (zh) * | 2019-04-28 | 2019-08-13 | 桂林电子科技大学 | 一种定位导航方法、装置及存储介质 |
CN110146910A (zh) * | 2019-05-15 | 2019-08-20 | 重庆大学 | 一种基于gps与激光雷达数据融合的定位方法及装置 |
Non-Patent Citations (2)
Title |
---|
A Two-Stage Local Positioning Method With Misalignment Calibration for Robotic Structural Monitoring of Buildings;Wang, R等;《JOURNAL OF DYNAMIC SYSTEMS MEASUREMENT AND CONTROL-TRANSACTIONS OF THE ASME》;20190630;全文 * |
自主移动机器人路径规划及轨迹跟踪的研究;陈少斌;《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》;20090615;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110780325A (zh) | 2020-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3940421A1 (en) | Positioning method and device based on multi-sensor fusion | |
US11900536B2 (en) | Visual-inertial positional awareness for autonomous and non-autonomous tracking | |
CN109341706B (zh) | 一种面向无人驾驶汽车的多特征融合地图的制作方法 | |
US10437252B1 (en) | High-precision multi-layer visual and semantic map for autonomous driving | |
US10794710B1 (en) | High-precision multi-layer visual and semantic map by autonomous units | |
CN111079619B (zh) | 用于检测图像中的目标对象的方法和装置 | |
Dickmanns et al. | Recursive 3-d road and relative ego-state recognition | |
CN112740268B (zh) | 目标检测方法和装置 | |
CN113377888B (zh) | 训练目标检测模型和检测目标的方法 | |
CN110377025A (zh) | 用于自动驾驶车辆的传感器聚合框架 | |
CN110780325B (zh) | 运动对象的定位方法及装置、电子设备 | |
JP2021514885A (ja) | 自動運転車のlidar測位に用いられるディープラーニングに基づく特徴抽出方法 | |
KR20200046437A (ko) | 영상 및 맵 데이터 기반 측위 방법 및 장치 | |
KR20230008000A (ko) | 차선 및 특징 포인트에 기초한 위치확정방법 및 장치, 전자장비, 저장매체, 컴퓨터 프로그램 및 자율주행차량 | |
Chiu et al. | Augmented reality driving using semantic geo-registration | |
CN115049910A (zh) | 一种基于双目视觉里程计的足式机器人建图与导航方法 | |
CN115063480A (zh) | 位姿确定方法、装置、电子设备和可读存储介质 | |
CN110843772B (zh) | 潜在碰撞的相对方向判断方法、装置、设备及存储介质 | |
CN112651991B (zh) | 视觉定位方法、装置及计算机系统 | |
CN117132980A (zh) | 标注模型训练方法、道路标注方法、可读介质和电子设备 | |
CN112380314A (zh) | 路网信息的处理方法和装置、存储介质及电子设备 | |
Wang et al. | Real-time location estimation for indoor navigation using a visual-inertial sensor | |
CN115752476B (zh) | 一种基于语义信息的车辆地库重定位方法、装置、设备和介质 | |
Dickmanns | Expectation-based, multi-focal, saccadic vision (understanding dynamic scenes observed from a moving platform) | |
Toupet et al. | Augmenting state estimates with multiple camera visual measurements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40018315 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |