CN112433193B - 一种基于多传感器的模位置定位方法及系统 - Google Patents

一种基于多传感器的模位置定位方法及系统 Download PDF

Info

Publication number
CN112433193B
CN112433193B CN202011231184.4A CN202011231184A CN112433193B CN 112433193 B CN112433193 B CN 112433193B CN 202011231184 A CN202011231184 A CN 202011231184A CN 112433193 B CN112433193 B CN 112433193B
Authority
CN
China
Prior art keywords
target
dimensional
space
information
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011231184.4A
Other languages
English (en)
Other versions
CN112433193A (zh
Inventor
陈小忠
王聪
高桢
袁晓颖
赵小伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Industry Research Information And Artificial Intelligence Integration Research Institute Co ltd
Original Assignee
Shandong Industry Research Information And Artificial Intelligence Integration Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Industry Research Information And Artificial Intelligence Integration Research Institute Co ltd filed Critical Shandong Industry Research Information And Artificial Intelligence Integration Research Institute Co ltd
Priority to CN202011231184.4A priority Critical patent/CN112433193B/zh
Publication of CN112433193A publication Critical patent/CN112433193A/zh
Application granted granted Critical
Publication of CN112433193B publication Critical patent/CN112433193B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于多传感器的模位置定位方法及系统,包括:分别获取待测目标的三维空间信息和像素信息;基于所述三维空间信息得出所述目标在空间中所占据的几何空间;基于所述像素信息,通过坐标转换,根据目标像素点的二维坐标计算出所述目标在场景中的三维坐标;通过所述目标在空间中所占据的几何空间对其像素点在空间中的坐标的约束,得到所述目标所有空间点的集合,实现目标的模位置定位。本发明方法重点解决目标模位置的定位问题,能够在复杂的场景中提高定位的精准度,为安防监控、轨道交通、无人驾驶及工业自动化等场景提供场景中目标模位置的定位支持。

Description

一种基于多传感器的模位置定位方法及系统
技术领域
本发明涉及多传感器的模位置定位技术领域,尤其涉及一种基于多传感器的模位置定位方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
当前,定位技术被广泛应用于交通出行、无人驾驶、智慧城市等领域,同时在民用领域得到了广泛普及。在信息化的社会中,高精度定位服务是生活智能化的核心功能。在无人驾驶中,高精度定位服务是实现车辆安全行驶的重要前提。
在当前定位领域,主要有三类技术:第一类方法是通过用户携带终端获取定位信息,即用户下载专用的手机APP或各类信标等,这类方法完全依赖于用户参与,用户体验较差。第二种技术是通过摄像头通过采集图像获取定位信息,进一步的通过坐标系的转换获取到用户的坐标,这类方法尽管不需要用户有感参与,但在场景信息复杂的情况下,定位精度大幅下降,会严重降低用户体验。第三种技术是通过多传感器的协同定位,这类方法将上述第一类和第二类方法进行了融合。但由于引入过多的传感器,这种方案在处理多类别多传感器数据的时候对于各类数据的折衷往往限制了其定位的精度。因此,如何进行多类别多传感器数据的融合以及进一步提升定位精度逐渐受到科研界和工业界的关注。
随着深度学习的发展,卷积神经网络(CNN,Convolutional Neural Networks)已经被广泛应用在图像目标识别、检测中,如人脸识别、目标检测等。这类方法尽管大幅提升了目标识别、检测的准确度,但无法实现目标在现实场景中的定位。通过从像素坐标系到世界坐标系的转换关系,可以实现将像素中一点转换为场景中的一点,但仍无法实现目标模位置的定位。因此,当前应用的各类定位常规方法都无法实现目标模位置的定位。
发明内容
为了解决上述问题,本发明提出了一种基于多传感器的模位置定位方法及系统,能够通过多传感器的数据融合,并在此基础上利用视觉等技术来获取目标的模位置定位,能够解决目标模位置的定位问题,能够在复杂的场景中提高定位的精准度。
在一些实施方式中,采用如下技术方案:
一种基于多传感器的模位置定位方法,其特征在于,包括:
分别获取待测目标的三维空间信息和像素信息;
基于所述三维空间信息得出所述目标在空间中所占据的几何空间;
基于所述像素信息,通过坐标转换,根据目标像素点的二维坐标计算出所述目标在场景中的三维坐标;
通过所述目标在空间中所占据的几何空间对其像素点在空间中的坐标的约束,得到所述目标所有空间点的集合,实现目标的模位置定位。
在另一些实施方式中,采用如下技术方案:
一种基于多传感器的模位置定位系统,包括:
数据获取模块,用于分别获取待测目标的三维空间信息和像素信息;
目标几何空间计算模块,用于基于所述三维空间信息得出所述目标在空间中所占据的几何空间;
目标三维坐标计算模块,用于基于所述像素信息,通过坐标转换,根据目标像素点的二维坐标计算出所述目标在场景中的三维坐标;
目标模位置定位模块,用于通过所述目标在空间中所占据的几何空间对其像素点在空间中的坐标的约束,得到所述目标所有空间点的集合,实现目标的模位置定位。
在另一些实施方式中,采用如下技术方案:
一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行上述的基于多传感器的模位置定位方法。
在另一些实施方式中,采用如下技术方案:
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并执行上述的基于多传感器的模位置定位方法。
与现有技术相比,本发明的有益效果是:
本发明提出的基于多传感器的模位置定位方法,能够通过多传感器的数据融合,并在此基础上利用视觉等技术来获取目标的模位置定位。该方法重点解决目标模位置的定位问题,能够在复杂的场景中提高定位的精准度,为安防监控、轨道交通、无人驾驶及工业自动化等场景提供场景中目标模位置的定位支持。
附图说明
图1是本发明实施例中基于多传感器的模位置定位方法流程图;
图2是本发明实施例中三维目标检测神经网络结构示意图;
图3是本发明实施例中多视角图像分割系统模型示意图;
图4是本发明实施例中三维空间模位置定位示意图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
实施例一
首先需要说明的是,本实施例中所述的模位置,即一个目标其所有表面点位置的组合。
传统意义上的定位结果大多是以一个二维或者三维点坐标的形式呈现,全景定位中的模位置不再将目标看成一个点,而是将其作为目标本身具有的形状、体积、占据的空间而呈现,模位置相当于对组成目标的所有点进行定位,将属于同一个目标的所有表面点位置组合起来也就是目标的模位置信息,通过目标的模位置信息可以在三维空间中还原出目标的立体结构。
野外作业过程中,通过获取作业设备精确的模位置信息,结合周围环境的空间结构信息,即可实现对作业设备进行精确控制。
本发明提出的基于多传感器的模位置定位方法,能够通过多传感器的数据融合,并在此基础上利用视觉等技术来获取目标的模位置定位。该方法重点解决目标模位置的定位问题,能够在复杂的场景中提高定位的精准度,为安防监控、轨道交通、无人驾驶及工业自动化等场景提供场景中目标模位置的定位支持。
根据本发明的实施例,公开了一种基于多传感器的模位置定位方法的实施例,参照图1,包括以下步骤:
步骤S101:基于三维目标检测获取目标的三维空间信息;
具体地,本实施例通过三维目标检测(3DOD,3D Object Detection)神经网络获取目标的三维空间信息。相比于传统的二维目标检测神经网络,其功能不同之处在于在三维目标检测的三维边界框(3D Bounding Box)的表示相对于二维目标检测多了一个维度的位置和尺寸。通过额外获取到的位置及尺寸信息,可以进一步地得知目标在空间中的三维信息。
在本实施例中,通过计算目标三维空间位置,自主驾驶的车辆或机器人可以准确的预判周围场景中同行设备的行为和路径,能够很好地避免碰撞。
本实施例中涉及的步骤主要包括两部分:
首先,通过激光扫描仪生成场景中的点云信息。然后,再通过三维目标检测神经网络根据输入的点云及图像计算出场景中目标的三维空间信息。
在本实施例中,对于激光扫描仪生成场景中的点云信息,主要包括利用激光扫描仪生成可以供三维目标检测神经网络使用的场景数据。
对于三维目标检测神经网络根据输入的点云及图像计算出场景中目标的三维空间信息,则主要对三维目标检测的神经网络进行了设计。
本步骤主要包括两个部分:
(1)通过激光扫描仪生成场景中的点云信息;
对于场景中点云信息的生成,本实施例通过在场景中安装激光扫描仪(LaserScanner)对场景中的信息进行采集。
需要说明的是,本实施例中采用激光扫描获取场景点云只是一个较为优选的实施例,其他获取点云的传感器同样可以实现场景中点云的获取,如深度摄像头、三维模型逆向获取点云等。
(2)通过神经网络基于点云获取场景中目标的三维空间信息;
本实施例设计三维目标检测的神经网络,可以有效的获取目标在空间中的三维空间信息。首先激光扫描获取场景点云作为输入,输入到三维目标检测神经网络中。由于场景中的目标是自然分离的,且彼此不重叠。因此,可以通过点云的聚类来实现场景中目标的三维检测,并将检测到的3D Bounding Box内的点视为前景点。
因此,逐点学习点的特征、分割原始点云,同时从分割的前景点生成区域提议位置。
在获取到目标的三维边界框后,再进一步通过卷积层优化候选框(候选框是用来在一个二维图像或者三维的点云中,框选出目标所在的位置,即区域提议位置)的位置和方向。候选区域池化点云(Pooling from Point Cloud)以获得精细特征。根据每个三维区域提议位置,对每个三维边界框进行非极大值抑制(NMS),进一步得到精确的三维空间信息。
本实施例中关于三维目标检测的神经网络结构采用改进的Two Stage的三维目标检测神经网络结构,具体如图2所示。需要说明的是,本实施例采用改进的Two Stage的三维目标检测神经网络结构只是一个较为优选实施例,其他三维目标检测的神经网络同样可以实现相同的功能。
步骤S102:基于多视角图像分割神经网络获取目标的像素信息;
在图像分割通过神经网络获取目标的像素信息阶段,先通过卷积神经网络得到的图像特征,再进一步的通过语义分割神经网络对所提取到的图像特征进行判别,对图像中的像素点进行分类。
本实施例中对于多视角图像分割系统的设计,如图3所示。需要说明的是,在本实施例中,图像分割的神经网络设计采用了基于卷积的神经网络并给出了一个优选实施例。事实上,通过其他结构的神经网络也可以实现图像的分割。此外,对于目标像素点的分类,也可通过非深度学习的方法实现分类,如支持向量机等机器学习方法。
步骤S103:基于信息融合获取目标模位置定位。
具体地,首先,基于三维目标检测获取目标的三维空间信息后,通过坐标系间的转换,将获取的三维边界框的坐标转换为空间坐标。由此,可以得知一个目标在空间中所占据的几何空间。
然后,基于图像分割神经网络获取目标的像素信息,由张正友标定法分别解算出每个相机的内参信息,通过UWB确定地面上最少4个标志点的坐标,再由地面的标志点可以解算出相机的姿态信息。
进一步地,通过像素坐标系到物理坐标系,物理坐标系到相机坐标系,相机坐标系到世界坐标系间的转换关系,可以由目标像素点的二维坐标计算出目标在场景中的三维坐标。
参照图4,通过一个目标在空间中所占据的几何空间对其像素点在空间中的坐标的约束,可以得到目标所有空间点的集合,即目标的模位置。
本发明能够通过多传感器包括但不限于各类相机,激光雷达,毫米波雷达等,基于不同的组合方式来进行模位置定位。
实施例二
根据本发明的实施例,公开了一种基于多传感器的模位置定位系统的实施例,包括:
数据获取模块,用于分别获取待测目标的三维空间信息和像素信息;
目标几何空间计算模块,用于基于所述三维空间信息得出所述目标在空间中所占据的几何空间;
目标三维坐标计算模块,用于基于所述像素信息,通过坐标转换,根据目标像素点的二维坐标计算出所述目标在场景中的三维坐标;
目标模位置定位模块,用于通过所述目标在空间中所占据的几何空间对其像素点在空间中的坐标的约束,得到所述目标所有空间点的集合,实现目标的模位置定位。
需要说明的是,上述各模块的具体实现方式采用实施例一中公开的方法实现,不再赘述。
实施例三
在一个或多个实施方式中,公开了一种终端设备,包括服务器,所述服务器包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现实施例一中的基于多传感器的模位置定位方法。为了简洁,在此不再赘述。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的基于多传感器的模位置定位方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元即算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
实施例四
在一个或多个实施方式中,公开了一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备的处理器加载并实施例一中所述的基于多传感器的模位置定位方法。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (4)

1.一种基于多传感器的模位置定位方法,其特征在于,包括:
分别获取待测目标的三维空间信息和像素信息;获取待测目标的三维空间信息,具体过程包括:获取目标所在场景中的点云信息;通过Two Stage的三维目标检测神经网络结构,根据输入的点云及图像计算出场景中目标的三维空间信息;
通过三维目标检测神经网络获取目标的三维空间信息,具体过程包括:通过点云的聚类实现场景中目标的三维检测,并将检测到的三维边界框内的点视为前景点;逐点学习点的特征、分割原始点云,同时从分割的前景点生成区域提议位置;通过卷积层优化区域提议位置的位置和方向;候选区域池化点云以获得精细特征;根据每个三维区域提议位置,对每个三维边界框进行NMS,进一步得到精确的三维空间信息;
获取待测目标的像素信息,具体包括:通过卷积神经网络得到目标的图像特征;通过语义分割神经网络对所述图像特征进行判别,对图像中的像素点进行分类;
基于所述三维空间信息得出所述目标在空间中所占据的几何空间;具体包括:基于所述三维空间信息,通过坐标系的转换,将获取的三维边界框坐标转换为空间坐标,得出所述目标在空间中所占据的几何空间;
基于所述像素信息,通过坐标转换,根据目标像素点的二维坐标计算出所述目标在场景中的三维坐标;具体包括:基于目标的像素信息,通过标定法分别解算出每个相机的内参信息;确定地面上最少4个标志点的坐标,再由地面的标志点解算出相机的姿态信息;通过像素坐标系到物理坐标系,物理坐标系到相机坐标系,相机坐标系到世界坐标系间的转换关系,由目标像素点的二维坐标计算出目标在场景中的三维坐标;
通过所述目标在空间中所占据的几何空间对其像素点在空间中的坐标的约束,得到所述目标所有空间点的集合,实现目标的模位置定位。
2.一种基于多传感器的模位置定位系统,其特征在于,包括:
数据获取模块,用于分别获取待测目标的三维空间信息和像素信息;获取待测目标的三维空间信息,具体过程包括:获取目标所在场景中的点云信息;通过Two Stage的三维目标检测神经网络结构,根据输入的点云及图像计算出场景中目标的三维空间信息;通过三维目标检测神经网络获取目标的三维空间信息,具体过程包括:通过点云的聚类实现场景中目标的三维检测,并将检测到的三维边界框内的点视为前景点;逐点学习点的特征、分割原始点云,同时从分割的前景点生成区域提议位置;通过卷积层优化区域提议位置的位置和方向;候选区域池化点云以获得精细特征;根据每个三维区域提议位置,对每个三维边界框进行NMS,进一步得到精确的三维空间信息;
目标几何空间计算模块,用于基于所述三维空间信息得出所述目标在空间中所占据的几何空间;具体包括:基于所述三维空间信息,通过坐标系的转换,将获取的三维边界框坐标转换为空间坐标,得出所述目标在空间中所占据的几何空间;
获取待测目标的像素信息,具体包括:通过卷积神经网络得到目标的图像特征;通过语义分割神经网络对所述图像特征进行判别,对图像中的像素点进行分类;
目标三维坐标计算模块,用于基于所述像素信息,通过坐标转换,根据目标像素点的二维坐标计算出所述目标在场景中的三维坐标;具体包括:基于目标的像素信息,通过标定法分别解算出每个相机的内参信息;确定地面上最少4个标志点的坐标,再由地面的标志点解算出相机的姿态信息;通过像素坐标系到物理坐标系,物理坐标系到相机坐标系,相机坐标系到世界坐标系间的转换关系,由目标像素点的二维坐标计算出目标在场景中的三维坐标;
目标模位置定位模块,用于通过所述目标在空间中所占据的几何空间对其像素点在空间中的坐标的约束,得到所述目标所有空间点的集合,实现目标的模位置定位。
3.一种终端设备,其包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,其特征在于,所述指令适于由处理器加载并执行权利要求1所述的基于多传感器的模位置定位方法。
4.一种计算机可读存储介质,其中存储有多条指令,其特征在于,所述指令适于由终端设备的处理器加载并执行权利要求1所述的基于多传感器的模位置定位方法。
CN202011231184.4A 2020-11-06 2020-11-06 一种基于多传感器的模位置定位方法及系统 Active CN112433193B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011231184.4A CN112433193B (zh) 2020-11-06 2020-11-06 一种基于多传感器的模位置定位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011231184.4A CN112433193B (zh) 2020-11-06 2020-11-06 一种基于多传感器的模位置定位方法及系统

Publications (2)

Publication Number Publication Date
CN112433193A CN112433193A (zh) 2021-03-02
CN112433193B true CN112433193B (zh) 2023-04-07

Family

ID=74695596

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011231184.4A Active CN112433193B (zh) 2020-11-06 2020-11-06 一种基于多传感器的模位置定位方法及系统

Country Status (1)

Country Link
CN (1) CN112433193B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113436273A (zh) * 2021-06-28 2021-09-24 南京冲浪智行科技有限公司 一种3d场景定标方法、定标装置及其定标应用

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135485A (zh) * 2019-05-05 2019-08-16 浙江大学 单目相机与毫米波雷达融合的物体识别与定位方法和系统
CN110226184A (zh) * 2016-12-27 2019-09-10 杰拉德·迪尔克·施密茨 用于机器感知的系统和方法
CN110929692A (zh) * 2019-12-11 2020-03-27 中国科学院长春光学精密机械与物理研究所 一种基于多传感器信息融合的三维目标检测方法及装置
KR20200043006A (ko) * 2018-10-17 2020-04-27 삼성전자주식회사 위치 추정 장치 및 방법
CN111179300A (zh) * 2019-12-16 2020-05-19 新奇点企业管理集团有限公司 障碍物检测的方法、装置、系统、设备以及存储介质
CN111275036A (zh) * 2018-12-04 2020-06-12 北京嘀嘀无限科技发展有限公司 目标检测方法、装置、电子设备及计算机可读存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102529137B1 (ko) * 2016-08-22 2023-05-03 매직 립, 인코포레이티드 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스
US10977818B2 (en) * 2017-05-19 2021-04-13 Manor Financial, Inc. Machine learning based model localization system
US10438371B2 (en) * 2017-09-22 2019-10-08 Zoox, Inc. Three-dimensional bounding box from two-dimensional image and point cloud data
CN110160502B (zh) * 2018-10-12 2022-04-01 腾讯科技(深圳)有限公司 地图要素提取方法、装置及服务器
CN111091588A (zh) * 2019-12-23 2020-05-01 施努卡(苏州)智能装备有限公司 一种带噪无序点云自动配准方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110226184A (zh) * 2016-12-27 2019-09-10 杰拉德·迪尔克·施密茨 用于机器感知的系统和方法
KR20200043006A (ko) * 2018-10-17 2020-04-27 삼성전자주식회사 위치 추정 장치 및 방법
CN111275036A (zh) * 2018-12-04 2020-06-12 北京嘀嘀无限科技发展有限公司 目标检测方法、装置、电子设备及计算机可读存储介质
CN110135485A (zh) * 2019-05-05 2019-08-16 浙江大学 单目相机与毫米波雷达融合的物体识别与定位方法和系统
CN110929692A (zh) * 2019-12-11 2020-03-27 中国科学院长春光学精密机械与物理研究所 一种基于多传感器信息融合的三维目标检测方法及装置
CN111179300A (zh) * 2019-12-16 2020-05-19 新奇点企业管理集团有限公司 障碍物检测的方法、装置、系统、设备以及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Energy-Based Target Localization in Multi-Hop Wireless Sensor Networks;Zhenxing Luo;《2012 IEEE Radio and Wireless Symposium》;20121231;全文 *
基于语义分割的分拣系统目标检测与定位;王志恒等;《计量与测试技术》;20180430(第04期);全文 *
激光雷达与路侧摄像头的双层融合协同定位;黄文锦等;《浙江大学学报(工学版)》(第07期);全文 *

Also Published As

Publication number Publication date
CN112433193A (zh) 2021-03-02

Similar Documents

Publication Publication Date Title
KR102143108B1 (ko) 차선 인식 모델링 방법, 장치, 저장 매체 및 기기, 및 인식 방법, 장치, 저장 매체 및 기기
CN113819890B (zh) 测距方法、装置、电子设备及存储介质
CN111815707B (zh) 点云确定方法、点云筛选方法、装置、计算机设备
EP3321887A1 (en) Urban road recognition method, apparatus, storage medium and device based on laser point cloud
EP3822852B1 (en) Method, apparatus, computer storage medium and program for training a trajectory planning model
US20220198688A1 (en) Laser coarse registration method, device, mobile terminal and storage medium
CN106599108A (zh) 一种三维环境中多模态环境地图构建方法
CN114179788B (zh) 自动泊车方法、系统、计算机可读存储介质及车机端
EP3324359B1 (en) Image processing device and image processing method
CN114648640B (zh) 一种目标物单体化方法、装置、设备及存储介质
CN113240734B (zh) 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质
CN114821507A (zh) 一种用于自动驾驶的多传感器融合车路协同感知方法
EP3703008A1 (en) Object detection and 3d box fitting
CN114648551B (zh) 轨迹预测方法及装置
CN112257668A (zh) 主辅路判断方法、装置、电子设备及存储介质
Zheng et al. Multivehicle multisensor occupancy grid maps (MVMS-OGM) for autonomous driving
CN113887400A (zh) 障碍物检测方法、模型训练方法、装置及自动驾驶车辆
CN115436920A (zh) 一种激光雷达标定方法及相关设备
CN117523522B (zh) 隧道场景的识别方法、装置、设备和存储介质
CN112433193B (zh) 一种基于多传感器的模位置定位方法及系统
Wang et al. 3D-LIDAR based branch estimation and intersection location for autonomous vehicles
CN114662587A (zh) 一种基于激光雷达的三维目标感知方法、装置及系统
Chougula et al. Road segmentation for autonomous vehicle: A review
CN111813882B (zh) 一种机器人地图构建方法、设备及存储介质
CN114868154A (zh) 包括多分辨率体素中的协方差的地图

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant