CN112823321B - 对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法 - Google Patents
对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法 Download PDFInfo
- Publication number
- CN112823321B CN112823321B CN201980066879.0A CN201980066879A CN112823321B CN 112823321 B CN112823321 B CN 112823321B CN 201980066879 A CN201980066879 A CN 201980066879A CN 112823321 B CN112823321 B CN 112823321B
- Authority
- CN
- China
- Prior art keywords
- feature
- obstacle
- value
- unit
- types
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 48
- 238000013507 mapping Methods 0.000 claims abstract description 15
- 238000012937 correction Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 7
- 230000001012 protector Effects 0.000 claims 2
- 239000000284 extract Substances 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 14
- 230000002776 aggregation Effects 0.000 description 7
- 238000004220 aggregation Methods 0.000 description 7
- 101150064138 MAP1 gene Proteins 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/02—Computing arrangements based on specific mathematical models using fuzzy logic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Aviation & Aerospace Engineering (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Acoustics & Sound (AREA)
- Algebra (AREA)
- Mathematical Optimization (AREA)
- General Health & Medical Sciences (AREA)
- Fuzzy Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Analysis (AREA)
- Molecular Biology (AREA)
- Pure & Applied Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明涉及一种对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法,适用一实施例的系统,包括:传感器部,配备用于对位于物体周边的障碍物信息进行检测的多种类型传感器;数据库部,配备存储有用于对物体的位置进行定位的多个定位信息的多种类型数据库;特征检测部,通过执行从障碍物信息提取出特征点并借此识别出障碍物的以特征点为基础的匹配以及对特征点以及多个定位信息进行比较并借此识别出具有一致的特征点的障碍物的以模型为基础的匹配而检测出特征值;模糊映射部,通过为特征值分配加权值而对特征值进行补正并通过经过补正的特征值计算出物体的位置区域值以及障碍物位置值,进而通过适用模糊逻辑而生成用于体现物体位置区域以及障碍物位置的初始地图;以及,位置定位部,在体现出物体位置区域以及障碍物位置的地图中对物体的位置进行定位。
Description
技术领域
本发明涉及一种对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法,尤其涉及一种可以通过对多种类型传感器所检测到的信息进行混合而准确地对移动物体的位置进行定位的位置定位系统及其方法。
背景技术
可以实现自动驾驶的机器人以及无人机被越来越多地应用于包括工业用途在内的各个领域。在如上所述的机器人以及无人机的自动驾驶中最为重要的技术,是对移动中的机器人以及无人机的当前位置进行准确定位的技术。
为了对如上所述的机器人以及无人机的位置进行定位,可以通过从全球定位系统(GPS)卫星接收信号而对当前位置进行判断,也可以使用如里程表(Odometer)、惯性导航系统(INS)、电子罗盘等,或者使用可以更加准确地掌握其位置的通用差分全球定位系统(CDGPS)。
但是,全球定位系统(GPS)卫星信号具有误差范围较大(例如:约5~10m左右)以及在卫星无法观测到的室内完全无法使用的问题,而通用差分全球定位系统(CDGPS)具有价格昂贵的问题。
因为如上所述的问题,正在持续开展作为替代方案的可实现位置定位的雷达/激光(Rader/Laser)、无线局域网、无线射频识别(RFID)相关的研究以及技术开发活动,但是如上所述的雷达/激光(Rader/Laser)、无线局域网、无线射频识别(RFID)是针对室内的位置定位进行优化的技术,因此具有难以在室外使用的问题。
因为如上所述的问题,急需开展无论在室内/室外都可以准确地对机器人以及无人机的位置进行定位的研究以及技术开发活动。
作为与其相关的先行技术,在大韩民国注册专利第10-1255024号中公开了一种可以以超声波传感器为基础对其他物体的位置以及方向进行推测的位置推测系统及其方法。但是,因为如上所述的先行技术是以只能实现较弱的位置识别的超声波传感器为基础对物体的位置以及方向进行推测,因此具有难以准确地对物体的位置进行推测的问题。
现有技术文献
专利文献
(专利文献1)大韩民国注册专利第10-1255024号
发明内容
本发明旨在解决如上所述的现有问题,本发明的目的在于提供一种通过配备多种类型的可以实现较弱的位置识别的传感器而对障碍物信息进行检测并从所检测到的障碍物信息以及多个定位信息检测出特征值,接下来通过为所检测到的特征值分配加权值而进行补正之后再进行混合,从而可以准确地对移动物体的位置进行定位的可以实现较强的位置识别的位置定位系统及其方法。
但是,本发明拟达成的技术课题并不限定于在上述内容中提及的技术课题,具有本发明所属技术领域之一般知识的人员将可以通过下述记载进一步明确理解未被提及的其他技术课题。
作为用于达成上述目的的技术手段,适用本发明之一实施例的对基于多种类型传感器的位置识别结果进行混合的位置定位系统,包括:传感器部,安装在物体上,配备用于对位于物体周边的障碍物信息进行检测的多种类型传感器;数据库部,配备存储有用于对物体的位置进行定位的多个定位信息的多种类型数据库;特征检测部,通过执行从障碍物信息提取出特征点并借此识别出障碍物的以特征点为基础的匹配以及对特征点以及多个定位信息进行比较并借此识别出具有一致的特征点的障碍物的以模型为基础的匹配而检测出特征值;模糊映射部,通过为特征值分配加权值而对特征值进行补正并通过经过补正的特征值计算出物体的位置区域值以及障碍物位置值,进而通过适用模糊(Fuzzy)逻辑而生成用于体现物体位置区域以及障碍物位置的初始地图;以及,位置定位部,在体现出物体位置区域以及障碍物位置的地图中对物体的位置进行定位。
此外,多种类型传感器至少包括3D雷达、视觉传感器以及超声波传感器。
此外,多种类型数据库至少包括3D模型数据库、图像模型数据库以及关系型数据库。
此外,模糊映射部,包括:集合运算部,被编程为对特征值进行集合运算;补正部,计算出经过集合运算的特征值之间的加权值,并通过将所计算出的加权值分配至经过集合运算的特征值而对经过集合运算的特征值进行补正;位置计算部,利用经过补正的特征值计算出物体位置区域值以及障碍物位置值;地图生成部,生成用于计算出物体位置区域值以及障碍物位置值的初始地图;以及,模糊控制部,被编程为适用模糊逻辑。
此外,补正部可以从经过集合运算的特征值中包含通过执行相对较多的匹配而检测出的特征值的经过集合运算的特征值计算出相对较高的加权值并进行补正。
此外,补正部可以从经过集合运算的特征值中包含通过执行匹配而提取出相对较多的特征点的特征值的经过集合运算的特征值计算出相对较高的加权值并进行补正。
此外,位置定位部,包括:显示部,在初始地图中显示出基于物体位置区域值的物体位置区域以及基于障碍物位置值的障碍物;以及,位置地点测定部,通过计算出在物体位置区域内显示的障碍物与实际物体之间的距离而对物体位置区域内的物体位置地点进行测定。
此外,作为用于达成上述目的的另一技术手段,适用本发明之一实施例的对基于多种类型传感器的位置识别结果进行混合的位置定位方法,包括:对位于物体周边的障碍物信息进行检测的步骤;通过执行从障碍物信息提取出特征点并借此识别出障碍物的以特征点为基础的匹配以及对特征点以及所存储的多个定位信息进行比较并借此识别出具有一致的特征点的障碍物的以模型为基础的匹配而检测出特征值的步骤;通过为特征值分配加权值而对特征值进行补正并通过经过补正的特征值计算出物体的位置区域值以及障碍物位置值,进而通过适用模糊逻辑而生成用于体现物体位置区域以及障碍物位置的初始地图的模糊映射步骤;以及,在体现出物体位置区域以及障碍物位置的地图中对物体的位置进行定位的步骤。
在本发明中,通过配备多种类型的可以实现较弱的位置识别的传感器而实现较强的位置识别,因此与现有的如全球定位系统(GPS)、通用差分全球定位系统(CDGPS)、雷达/激光(Rader/Laser)、无线局域网、无线射频识别(RFID)等仅由一个传感器构成的位置定位系统相比,可以更加准确地对相对移动物体的位置进行定位。
但是,本发明可达成的效果并不限定于在上述内容中提及的效果,具有本发明所属技术领域之一般知识的人员将可以通过下述记载进一步明确理解未被提及的其他效果。
附图说明
本说明书中所附的下述附图只是对本发明的较佳实施例进行的例示,起到与后续的本发明的详细说明一起帮助理解本发明之技术思想的作用,对本发明的解释并不应该限定于相应附图中所记载的事项。
图1是对适用本发明之一实施例的对基于多种类型传感器的位置识别结果进行混合的位置定位系统的构成进行概要性图示的块图。
图2是对适用本发明之一实施例的对基于多种类型传感器的位置识别结果进行混合的位置定位系统的整体构成进行图示的块图。
图3是对适用本发明之一实施例的对基于多种类型传感器的位置识别结果进行混合的位置定位方法的顺序图。
图4是特征值检测步骤的详细顺序图。
图5是模糊影射步骤的详细顺序图。
图6是物体位置定位步骤的详细顺序图。
图7是用于对根据物体位置定位步骤对物体的位置进行定位的过程进行说明的示意图。
【符号说明】
1:初始地图
2:物体位置区域
3:障碍物
4:物体位置地点
10:位置定位系统
100:传感器部
110:3D雷达
120:视觉传感器
130:超声波传感器
200:特征检测部
210:第1特征检测部
220:第2特征检测部
230:第3特征检测部
300:数据库部
310:3D模型数据库
320:场景模型数据库
330:关系型数据库
400:模糊映射部
410:集合运算部
420:补正部
430:位置计算部
440:地图生成部
450:模糊控制部
500:位置定位部
510:位置区域显示部
520:位置地点测定部
具体实施方式
接下来,将参阅附图对适用本发明的较佳的实施形态进行详细的说明。结合附图在下述内容中公开的详细说明只是用于对适用本发明的示例性的实施形态进行详细的说明,并不代表可以实施本发明的唯一的实施形态。为了帮助更加完整地理解本发明,接下来的详细说明包括具体细节事项。但是,具有本发明所属技术领域之一般知识的人员应该可以理解,本发明即使是在不包含如上所述的具体细节事项的情况下也可以实施。此外,在整个说明书中,当记载为某个部分“包括(comprising或including)”某个构成要素时,除非另有明确的相反记载,否则并不是指排除其他构成要素,而是指还可以包括其他构成要素。此外,在对本发明的实施例进行说明的过程中,当判定对公知功能或构成的具体说明可能会导致本发明的要旨变得不清晰时,将省略与其相关的详细说明。而且,后续使用的术语是考虑到在本发明的实施例中的功能的前提下做出定义的术语,可能会根据使用者以及应用者的意图或惯例而发生变更。因此,应该以本说明书中的全部内容为基础对其做出定义。
系统的构成
图1是对适用本发明之一实施例的对基于多种类型传感器的位置识别结果进行混合的位置定位系统的构成进行概要性图示的块图,图2是对适用本发明之一实施例的对基于多种类型传感器的位置识别结果进行混合的位置定位系统的整体构成进行图示的块图。
如图1以及图2所示,适用本发明之一实施例的对基于多种类型传感器的位置识别结果进行混合的位置定位系统10(以下称之为“位置定位系统”),提供一种通过配备多种类型的可以实现较弱的位置识别的传感器而对障碍物信息进行检测并从所检测到的障碍物信息以及多个定位信息检测出特征值,接下来通过为所检测到的特征值分配加权值而进行补正之后再进行混合,从而可以准确地对移动物体的位置进行定位的可以实现较强的位置识别的位置定位系统。
具体来讲,如上所述的适用一实施例的位置定位系统10如图1以及图2所示,包括:传感器部100,安装在物体上,配备用于对位于物体周边的障碍物信息进行检测的多种类型传感器;数据库部300,配备存储有用于对物体的位置进行定位的多个定位信息的多种类型数据库;特征检测部200,通过执行从障碍物信息提取出特征点并借此识别出障碍物的以特征点为基础的匹配以及对特征点以及多个定位信息进行比较并借此识别出具有一致的特征点的障碍物的以模型为基础的匹配而检测出特征值;模糊映射部400,通过为特征值分配加权值而对特征值进行补正,并通过经过补正的特征值计算出物体的位置区域值以及障碍物位置值,进而通过适用模糊逻辑而生成用于体现物体位置区域以及障碍物位置的初始地图;以及,位置定位部500,在体现出物体位置区域以及障碍物位置的地图中对物体的位置进行定位。
除此之外,在一实施例中的物体是指如机器人、无人机、车辆、飞机以及火车等可移动的所有对象,具体来讲可以是指无人机或机器人。
具体来讲,配备于传感器部100中的多种类型传感器110、120、130如图2所示,包括3D雷达110、视觉传感器120以及超声波传感器130。但是,传感器部100并不限定于包括3D雷达110、视觉传感器120以及超声波传感器130,为了更加准确地对物体的位置进行定位而追加包括可以以其他方式(如光学式、电波式、声音式等)对障碍物信息进行检测的其他类型的传感器为宜。
在配备于传感器部100的多种类型传感器中,3D雷达110是一种利用激光检测对象并计算出与对象之间的距离,从而将周边环境检测成3维立体数据的传感器。
视觉传感器120是被称之为图像传感器的传感器的一种类型,是一种利用照相机拍摄影像并将形成于影像平面上的对象的影像转换成电信号的传感器。
超声波传感器130是一种通过将20Khz以上的超声波信号发送到对象并测定从对象反射回来的时间而对与对象之间的距离进行测定的传感器。
此外,在适用本发明的一实施例中,3D雷达110、视觉传感器120以及超声波传感器130所检测的对象是指障碍物,而障碍物是指包括建筑物在内的可能会在移动物体移动的过程中发生碰撞且传感器部100可以检测到的周边的结构物、设施物或其他移动物体等。因此,在适用本发明的一实施例中,3D雷达110、视觉传感器120以及超声波传感器130理解为对与障碍物相关的障碍物信息进行检测为宜。
具体来讲,特征检测部200如图2所示,包括:第1特征检测部210,通过3D雷达110所检测到的障碍物信息检测出特征值;第2特征检测部220,通过视觉传感器120所检测到的障碍物信息检测出特征值;以及,第3特征检测部230,通过超声波传感器130所检测到的障碍物信息检测出特征值。
但是,特征检测部200并不限定于包括第1特征检测部210、第2特征检测部220以及第3特征检测部,当传感器部100中除3D雷达110、视觉传感器120以及超声波传感器130之外追加包括其他类型的传感器时,为了可以通过追加构成的传感器所检测到的障碍物信息检测出特征值而进一步包括单独的特征检测部为宜。
在配备于特征检测部200的特征检测部中,第1特征检测部210用于执行通过从3D雷达110所检测到的障碍物信息提取出特征点而对障碍物进行识别的以特征点为基础的匹配。其中,第1特征检测部210可以从在3D雷达110通过点云(Point Cloud)处理生成的对象表面测定到的点的群组提取出特征点。
第2特征检测部220用于执行通过从视觉传感器120所检测到的障碍物信息提取出特征点而对障碍物进行识别的以特征点为基础的匹配。其中,第2特征检测部220可以从视觉传感器120对障碍物的影像进行转换的电信号提取出特征点。
第3特征检测部230用于执行通过从超声波传感器130所检测到的障碍物信息提取出特征点而对障碍物进行识别的以特征点为基础的匹配。其中,第3特征检测部230可以从超声波传感器130所测定到的与障碍物之间的距离提取出特征点。
具体来讲,数据库部300如图2所示,包括:3D模型数据库310,存储有第1特征检测部210执行以模型为基础的匹配时所需要的定位信息;场景(场面)模型数据库320,存储有第2特征检测部220执行以模型为基础的匹配时所需要的定位信息;以及,关系型数据库330,存储有第3特征检测部230执行以模型为基础的匹配时所需要的定位信息。
但是,数据库部300并不限定于包括3D模型数据库310、场景模型数据库320以及关系型数据库330,当因为传感器部100追加包括其他类型的传感器而使得特征检测部200也追加包括其他特征检测部时,为了使追加构成的特征检测部可以执行以模型为基础的匹配而追加包括单独的数据库为宜。
在配备于数据库部300的数据库中,3D模型数据库310是指存储有包含障碍物的3维立体数据的定位信息的数据库。
借助于如上所述的3D模型数据库310,第1特征检测部210可以执行对通过3D雷达110提取出的特征点以及存储于3D模型数据库310的障碍物的3维立体数据进行比较而识别出一致的障碍物的以模型为基础的匹配并借此检测出特征值。
其中,第1特征检测部210所检测出的特征值应该理解为是3D雷达110检测成3维立体数据的障碍物信息以及在3D模型数据库310中存储为3维立体数据的障碍物信息中一致的点的群组(或集合)。
场景模型数据库320是指存储有包含障碍物的场景数据的定位信息的数据库。
借助于如上所述的场景(Scene)模型数据库320,第2特征检测部220可以执行对通过视觉传感器120提取出的特征点以及场景模型数据库320中的场景(Scene)数据进行比较而识别出一致的障碍物的以模型为基础的匹配并借此检测出特征值。
其中,第2特征检测部220所检测出的特征值应该理解为是视觉传感器120检测成图像的障碍物信息以及在场景模型数据库320中存储为场景数据的障碍物信息中一致的图像或场景(Scene,场面)。
关系型数据库330是指存储有需要通过超声波传感器130所生成的超声波进行重建的障碍物数据的数据库。
借助于如上所述的关系型数据库330,第3特征检测部230可以执行对通过超声波传感器130提取出的特征点以及关系型数据库330中的障碍物数据进行比较而识别出一致的障碍物的以模型为基础的匹配并借此检测出特征值。
其中,第3特征检测部230所检测出的特征值应该理解为是利用包含超声波传感器120通过超声波计算出的与对象之间的距离数据(例如:图表,表)的障碍物信息在关系型数据库330中进行重建的障碍物数据。
模糊映射部400适用用于将自然语言等的不明确状态或模糊状态表现为多值性而非真或假的二进制逻辑的模糊逻辑(Fuzzy logic),并以如上所述的模糊逻辑为基础执行模糊控制(Fuzzy control)。
具体来讲,如上所述的模糊映射部400如图2所示,包括:集合运算部410,被编程为对从第1、第2、第3特征检测部210、220、230分别检测出的特征值进行集合运算;补正部420,计算出经过集合运算的特征值之间的加权值,并通过将所计算出的加权值分配至经过集合运算的特征值而对经过集合运算的特征值进行补正;位置计算部430,利用经过补正的特征值计算出物体位置区域值以及障碍物位置值;地图生成部440,生成用于计算出物体位置区域值以及障碍物位置值的初始地图;以及,模糊控制部450,被编程为适用模糊逻辑。
集合运算部410对从第1、第2、第3特征检测部210、220、230分别检测出的特征值以层级结构进行集合运算。
进而,集合运算部410执行用于模糊控制的模糊集合。其中,模糊集合是指将特征值定义为基于模糊规则(Fuzzy fule)的集合。
补正部420可以从经过集合运算的特征值中包含在第1、第2、第3特征检测部210、220、230通过执行相对较多的匹配而检测出的特征值的经过集合运算的特征值计算出相对较高的加权值。
与上述计算出加权值的方式不同,补正部420可以从经过集合运算的特征值中包含在第1、第2、第3特征检测部210、220、230提取出相对较多的特征点的特征值的经过集合运算的特征值计算出相对较高的加权值。
此外,补正部420也可以对如上所述的加权值计算方式进行合并,从包含在第1、第2、第3特征检测部210、220、230通过执行相对较多的匹配检测出且提取出相对较多的特征点的特征值的经过集合运算的特征值计算出相对较高的加权值。
此外,补正部420通过将所计算出的加权值分别分配到经过集合运算的特征值中而对特征值进行补正,而如上所述的通过补正部420进行补正的特征值将在集合运算部410中阶层型集合。
进而,补正部420执行用于模糊控制的模糊化。其中,模糊化是指将特征值转换成具有基于模糊规则的从属函数的模糊值。
位置计算部430执行用于模糊控制的逆模糊化。其中,逆模糊化是指对在补正部420转换成模糊值的经过补正的特征值进行数值化。其中,之所以利用位置计算部430对特征值进行数值化,是因为利用具有从属函数的模糊值并不能计算出物体位置区域值以及障碍物位置值。
如上所述,位置计算部430通过执行逆模糊化而对经过补正的特征值进行数值化,并通过从经过数值化的特征值提取出物体位置区域信息而计算出物体位置区域值。其中,物体位置区域值是包含物体所在地点的区域值,是指经过数值化的值。
此外,位置计算部430从经过数值化的特征值提取出障碍物位置信息并计算出障碍物的位置值。其中,障碍物位置值是包含物体所在地点的值,是指经过数值化的值。
地图生成部440在位置计算部430计算出物体位置区域值以及障碍物位置值时,生成用于显示基于物体位置区域值以及障碍物位置值的物体位置区域以及障碍物的初始地图。其中,初始地图理解为是没有输入任何数据的状态的地图为宜。
具体来讲,位置定位部500如图2所示,包括:显示部510,在利用地图生成部440生成的初始地图中显示出利用位置计算部430计算出的基于物体位置区域值的物体位置区域以及基于障碍物位置值的障碍物;以及,位置地点测定部520,通过计算出在物体位置区域内显示的障碍物与实际物体之间的距离而对物体位置区域内的物体位置地点进行测定。
显示部510可以由用于显示初始地图的显示器构成,而且为了对物体位置进行定位而在初始地图中显示至少一个以上的物体位置区域以及障碍物为宜。
此外,显示部510并不只是显示物体位置区域以及障碍物,而是可以追加显示物体未知区域以及障碍物的相关信息。
位置地点测定部520通过全球定位系统(GPS)、微机电系统(MEMs)、无线网络(Wi-fi)、无线射频识别(RFID)、蓝牙(bluetooth)、紫蜂、无线局域网、雷达/激光(Rader/Laser)以及基于位置的服务(LBS)中的至少一个对显示在物体位置区域内的障碍物与实际物体之间的距离进行计算为宜。此外,位置地点测定部520将所测定到的物体位置地点显示在地图中。
定位方法
图3是对适用本发明之一实施例的对基于多种类型传感器的位置识别结果进行混合的位置定位方法的顺序图,图4是特征值检测步骤的详细顺序图,图5是模糊影射步骤的详细顺序图,图6是物体位置定位步骤的详细顺序图,图7是用于对根据物体位置定位步骤对物体的位置进行定位的过程进行说明的示意图。
具体来讲,如上所述的对基于多种类型传感器的位置识别结果进行混合的位置定位方法如图3所示,包括:对位于物体周边的障碍物信息进行检测的步骤S10;通过执行从障碍物信息提取出特征点并借此识别出障碍物的以特征点为基础的匹配以及对特征点以及所存储的多个定位信息进行比较并借此识别出具有一致的特征点的障碍物的以模型为基础的匹配而检测出特征值的步骤S20;通过为特征值分配加权值而对特征值进行补正并通过经过补正的特征值计算出物体的位置区域值以及障碍物位置值,进而通过适用模糊逻辑而生成用于体现物体位置区域以及障碍物位置的初始地图的模糊映射步骤S30;以及,在体现出物体位置区域以及障碍物位置的地图中对物体的位置进行定位的步骤S40。
首先,具体来讲,特征值检测步骤S20如图4所示,由以特征点为基础的匹配步骤S21以及以模型为基础的匹配步骤S22构成。
以特征点为基础的匹配步骤S21,是以所提取出的特征点为基础识别出障碍物的步骤。
以模型为基础的匹配步骤S22,是对所提取出的特征点以及多个定位信息进行比较并借此识别出具有一致的特征点的障碍物的步骤。
此外,特征值检测步骤S20可以在执行以特征点为基础的匹配步骤S21之后再执行以模型为基础的匹配步骤S22,也可以同时执行以特征点为基础的匹配步骤S21以及以模型为基础的匹配步骤S22。
具体来讲,模糊映射步骤S30如图5以及图7所示,由集合运算步骤S31、加权值计算步骤S32、加权值分配步骤S33、补正步骤S34、位置计算步骤S35以及初始地图生成步骤S36构成,也是执行模糊控制的步骤。
集合运算步骤S31是将在特征值检测步骤S20中检测出的特征值以阶层型进行集合运算的步骤,也是执行在模糊映射步骤S30中进行模糊控制时所需要的模糊集合的步骤。
加权值计算步骤S32是为在集合运算步骤S31中进行集合运算的特征值计算出加权值的步骤。其中,加权值与如上所述的对适用本发明的位置定位系统10的构成要素即补正部420的说明内容相同,所以在此将省略与其相关的详细说明。
加权值分配步骤S33是将在加权值计算步骤S32中计算出的加权值分配到经过集合运算的特征值中的步骤。
补正步骤S34是根据在加权值分配步骤S33中分配的加权值对特征值进行补正的步骤。此时,通过对特征值进行补正,集合运算步骤S31的阶层集合结构可能会发生变更。
此外,如上所述的加权值计算步骤S32、加权值分配步骤S33以及补正步骤S34也是执行在模糊映射步骤S30中进行模糊控制时所需要的模糊化的步骤。
位置计算步骤S35是通过在补正步骤S34中经过补正的特征值计算出物体位置区域值以及障碍物位置值的步骤,具体来讲,位置计算步骤S35是从经过补正的特征值中提取出物体位置区域信息并计算出物体位置区域值并从经过补正的特征值中提取出障碍物位置信息并计算出障碍物位置值的步骤。如上所述的位置计算步骤S35也是执行在模糊映射步骤S30进行模糊控制时所需要的逆模糊化的步骤。
初始地图生成步骤S36通过适用模糊逻辑而生成用于体现在位置计算步骤S35中计算出的基于物体位置区域值的物体位置区域2以及基于障碍物位置值的障碍物位置3的初始地图1。如上所述的初始地图1是指没有输入任何数据的状态的地图。
具体来讲,物体位置定位步骤S40如图6以及图7所示,由初始地图显示步骤S41以及物体位置地点测定步骤S42构成。
初始地图显示步骤S36是将在位置计算步骤S35中计算出的基于物体位置区域值的物体位置区域2以及基于障碍物位置值的障碍物位置3显示到在初始地图生成步骤S36生成的初始地图1中的步骤。在如上所述的初始地图显示步骤S41中,为了对物体的位置进行定位而显示至少一个物体位置区域2以及障碍物3为宜。
其中,物体位置区域2是指显示在初始地图1中的包含物体位置地点4的一定区域,而障碍物3是指存在于与实际障碍物位置相同位置上的对象。
物体位置地点测定步骤S42是计算出通过初始地图显示步骤S41显示在初始地图1中的物体位置区域2内的障碍物3a、3b、3c以及实际物体之间的距离并借此对物体位置区域2内的物体位置地点4进行测定的步骤。此时,障碍物3a、3b、3c的数量可能根据物体位置区域2的位置而发生变更,但是为了对物体位置地点4进行测定而包括至少一个为宜。
进而,物体位置地点测定步骤S42也是为了计算出障碍物3a、3b、3c与实际物体之间的距离而使用全球定位系统(GPS)、微机电系统(MEMs)、无线网络(Wi-fi)、无线射频识别(RFID)、蓝牙(bluetooth)、紫蜂、无线局域网、雷达/激光(Rader/Laser)以及基于位置的服务(LBS)中的至少一个的步骤。
如上所述的对本发明的说明仅为示例性目的,具有本发明所属技术领域之一般知识的人员应该可以理解本发明可以在不对其技术思想以及必要特征进行变更的情况下轻易地变形成其他具体的形态。因此,在上述内容中记述的实施例在所有方面只应该理解为是示例性目的而非限定。例如,以单一型进行说明的各个构成要素也可以分散实施,同理,以分散型进行说明的构成要素也可以以结合的形态实施。
本发明的范围应通过所附的权利要求书做出定义而非上述的详细说明,而且应该解释为从权利要求书的含义和范围及其均等概念推导出的所有变更或变形形态也包含于本发明的范围之内。
Claims (7)
1.一种对基于多种类型传感器的位置识别结果进行混合的位置定位系统,其特征在于:
作为用于对移动物体的位置进行定位的对基于多种类型传感器的位置识别结果进行混合的位置定位系统,包括:
传感器部,安装在上述物体上,配备用于对位于上述物体周边的障碍物信息进行检测的多种类型传感器;
数据库部,配备存储有用于对上述物体的位置进行定位的多个定位信息的多种类型数据库;
特征检测部,通过执行从上述障碍物信息提取出特征点并借此识别出障碍物的以特征点为基础的匹配以及对上述特征点以及上述多个定位信息进行比较并借此识别出具有一致的特征点的障碍物的以模型为基础的匹配而检测出特征值;
模糊映射部,通过为上述特征值分配加权值而对上述特征值进行补正并通过上述经过补正的特征值计算出上述物体的位置区域值以及障碍物位置值,进而通过适用模糊逻辑而生成用于体现上述物体位置区域以及上述障碍物位置的初始地图;以及,
位置定位部,在体现出上述物体位置区域以及上述障碍物位置的地图中对上述物体的位置进行定位,
上述模糊映射部,包括:
集合运算部,被编程为对上述特征值进行集合运算;
补正部,计算出上述经过集合运算的特征值之间的加权值,并通过将上述所计算出的加权值分配至上述经过集合运算的特征值而对上述经过集合运算的特征值进行补正;
位置计算部,利用上述经过补正的特征值计算出物体位置区域值以及障碍物位置值;
地图生成部,生成用于计算出上述物体位置区域值以及上述障碍物位置值的上述初始地图;以及,
模糊控制部,被编程为适用上述模糊逻辑。
2.根据权利要求1所述的对基于多种类型传感器的位置识别结果进行混合的位置定位系统,其特征在于:
上述多种类型传感器,
至少包括3D雷达、视觉传感器以及超声波传感器。
3.根据权利要求1所述的对基于多种类型传感器的位置识别结果进行混合的位置定位系统,其特征在于:
上述多种类型数据库,
至少包括3D模型护具库、图像模型护具库以及关系型数据库。
4.根据权利要求1所述的对基于多种类型传感器的位置识别结果进行混合的位置定位系统,其特征在于:
上述补正部,
从上述经过集合运算的特征值中包含通过执行相对较多的匹配而检测出的特征值的经过集合运算的特征值计算出相对较高的加权值并进行补正。
5.根据权利要求1所述的对基于多种类型传感器的位置识别结果进行混合的位置定位系统,其特征在于:
上述补正部,
从上述经过集合运算的特征值中包含通过执行匹配而提取出相对较多的特征点的特征值的经过集合运算的特征值计算出相对较高的加权值并进行补正。
6.根据权利要求1所述的对基于多种类型传感器的位置识别结果进行混合的位置定位系统,其特征在于:
上述位置定位部,包括:
显示部,在上述初始地图中显示出基于上述物体位置区域值的上述物体位置区域以及基于上述障碍物位置值的障碍物;以及,
位置地点测定部,通过计算出在上述物体位置区域内显示的障碍物与实际物体之间的距离而对上述物体位置区域内的物体位置地点进行测定。
7.一种对基于多种类型传感器的位置识别结果进行混合的位置定位方法,其特征在于:
作为利用权利要求1所述的用于对移动物体的位置进行定位的对基于多种类型传感器的位置识别结果进行混合的位置定位系统的位置定位方法,包括:
利用传感器部对位于上述物体周边的障碍物信息进行检测的步骤;
利用特征检测部通过执行从上述障碍物信息提取出特征点并借此识别出障碍物的以特征点为基础的匹配以及对上述特征点以及所存储的多个定位信息进行比较并借此识别出具有一致的特征点的障碍物的以模型为基础的匹配而检测出特征值的步骤;
利用集合运算部对从特征检测部检测出的特征值以层级结构进行集合运算,利用补正部通过为上述特征值分配加权值而对上述特征值进行补正并利用位置计算部通过上述经过补正的特征值计算出上述物体的位置区域值以及障碍物位置值,进而利用模糊控制部通过适用模糊逻辑而利用地图生成部生成用于体现物体位置区域以及障碍物位置的初始地图的模糊映射步骤;以及,
利用位置定位部在体现出上述物体位置区域以及上述障碍物位置的地图中对上述物体的位置进行定位的步骤。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180120261A KR102075844B1 (ko) | 2018-10-10 | 2018-10-10 | 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법 |
KR10-2018-0120261 | 2018-10-10 | ||
PCT/KR2019/008478 WO2020075954A1 (ko) | 2018-10-10 | 2019-07-10 | 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112823321A CN112823321A (zh) | 2021-05-18 |
CN112823321B true CN112823321B (zh) | 2024-04-16 |
Family
ID=69627423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980066879.0A Active CN112823321B (zh) | 2018-10-10 | 2019-07-10 | 对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法 |
Country Status (3)
Country | Link |
---|---|
KR (1) | KR102075844B1 (zh) |
CN (1) | CN112823321B (zh) |
WO (1) | WO2020075954A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111665855B (zh) * | 2020-08-03 | 2022-08-30 | 陕西理工大学 | 一种机器人预设性编队控制方法 |
KR102541755B1 (ko) * | 2021-05-24 | 2023-06-12 | 한국로봇융합연구원 | 고랑 인식 장치 및 방법 |
KR102558910B1 (ko) | 2021-08-25 | 2023-07-21 | 한국로봇융합연구원 | 주변 환경을 고려한 신뢰도 높은 다종의 센서 데이터를 융합한 위치 측위 장치 및 방법 |
WO2023249550A2 (en) * | 2022-06-20 | 2023-12-28 | Grabtaxi Holdings Pte. Ltd. | Method and device for placing road objects on map using sensor information |
CN115576328B (zh) * | 2022-11-15 | 2023-03-28 | 之江实验室 | 基于模糊控制器的机器人导航避障方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080075730A (ko) * | 2007-02-13 | 2008-08-19 | 한국과학기술연구원 | 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법 |
KR20090092366A (ko) * | 2008-02-27 | 2009-09-01 | 성균관대학교산학협력단 | 센서융합 시스템 및 센서융합 방법 |
CN103176185A (zh) * | 2011-12-26 | 2013-06-26 | 上海汽车集团股份有限公司 | 用于检测道路障碍物的方法及系统 |
KR101532320B1 (ko) * | 2014-04-18 | 2015-07-22 | 국방과학연구소 | 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법 |
WO2016103464A1 (ja) * | 2014-12-26 | 2016-06-30 | 三菱電機株式会社 | 障害物検知装置及び障害物検知方法 |
KR20180007412A (ko) * | 2016-07-13 | 2018-01-23 | 한국전자통신연구원 | 멀티센서 기반의 융합형 물체 감지 장치 및 방법 |
CN108369420A (zh) * | 2015-11-02 | 2018-08-03 | 星船科技私人有限公司 | 用于自主定位的设备和方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101054479B1 (ko) * | 2009-03-27 | 2011-08-05 | 국방과학연구소 | 방향별 주행성 속도지도를 활용한 무인차량의 지역경로계획장치 및 방법 |
JP2012085223A (ja) * | 2010-10-14 | 2012-04-26 | Nikon Corp | 撮影条件生成装置、撮像装置および撮影条件生成プログラム |
KR101255024B1 (ko) | 2011-10-24 | 2013-04-17 | 한국과학기술연구원 | 초음파 센서를 이용한 상대적 위치 추정 시스템 및 방법 |
-
2018
- 2018-10-10 KR KR1020180120261A patent/KR102075844B1/ko active IP Right Grant
-
2019
- 2019-07-10 CN CN201980066879.0A patent/CN112823321B/zh active Active
- 2019-07-10 WO PCT/KR2019/008478 patent/WO2020075954A1/ko active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080075730A (ko) * | 2007-02-13 | 2008-08-19 | 한국과학기술연구원 | 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법 |
KR20090092366A (ko) * | 2008-02-27 | 2009-09-01 | 성균관대학교산학협력단 | 센서융합 시스템 및 센서융합 방법 |
CN103176185A (zh) * | 2011-12-26 | 2013-06-26 | 上海汽车集团股份有限公司 | 用于检测道路障碍物的方法及系统 |
KR101532320B1 (ko) * | 2014-04-18 | 2015-07-22 | 국방과학연구소 | 자율주행 무인차량에 탑재된 쌍안카메라를 이용한 동적물체 검출방법 |
WO2016103464A1 (ja) * | 2014-12-26 | 2016-06-30 | 三菱電機株式会社 | 障害物検知装置及び障害物検知方法 |
CN108369420A (zh) * | 2015-11-02 | 2018-08-03 | 星船科技私人有限公司 | 用于自主定位的设备和方法 |
KR20180007412A (ko) * | 2016-07-13 | 2018-01-23 | 한국전자통신연구원 | 멀티센서 기반의 융합형 물체 감지 장치 및 방법 |
Non-Patent Citations (1)
Title |
---|
실외무인경비로봇을 위한 멀티모달 센서 기반 위치인식 기술;엄태영等;《대명 변산리조트》;第393-394页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112823321A (zh) | 2021-05-18 |
WO2020075954A1 (ko) | 2020-04-16 |
KR102075844B1 (ko) | 2020-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112823321B (zh) | 对基于多种类型传感器的位置识别结果进行混合的位置定位系统及其方法 | |
US11527084B2 (en) | Method and system for generating a bird's eye view bounding box associated with an object | |
US20180350056A1 (en) | Augmented reality application for manufacturing | |
US8024072B2 (en) | Method for self-localization of robot based on object recognition and environment information around recognized object | |
EP3447729B1 (en) | 2d vehicle localizing using geoarcs | |
CN109084784B (zh) | 用于建立用于自动化车辆的数字地图的方法 | |
WO2018223038A1 (en) | Augmented reality application for manufacturing | |
Kachurka et al. | WeCo-SLAM: Wearable cooperative SLAM system for real-time indoor localization under challenging conditions | |
CN111521971B (zh) | 一种机器人的定位方法及系统 | |
Sels et al. | 3D model assisted fully automated scanning laser Doppler vibrometer measurements | |
CN111380515A (zh) | 定位方法及装置、存储介质、电子装置 | |
Shang et al. | An efficient calibration approach for arbitrary equipped 3-d lidar based on an orthogonal normal vector pair | |
Zhu et al. | Quantifying feature association error in camera-based positioning | |
Rossmann et al. | Virtual testbeds for planetary exploration: The self-localization aspect | |
Irmisch et al. | Simulation framework for a visual-inertial navigation system | |
Simões et al. | A hybrid indoor positioning system using a linear weighted policy learner and iterative PDR | |
Azri et al. | Visual analytics of 3D LiDAR point clouds in robotics operating systems | |
EP4016251A1 (en) | Portable display device with overlaid virtual information | |
Kirnos et al. | The LIDAR Odometry in the SLAM | |
Rossmann et al. | Semantic navigation maps for mobile robot localization on planetary surfaces | |
Niedfeldt et al. | Distributed map fusion with sporadic updates for large domains | |
Atanasyan et al. | Improving self-localization using CNN-based monocular landmark detection and distance estimation in virtual testbeds | |
KR102558910B1 (ko) | 주변 환경을 고려한 신뢰도 높은 다종의 센서 데이터를 융합한 위치 측위 장치 및 방법 | |
Brandstatter et al. | How Agents Use Breadcrumbs to Find Their Way. | |
KR102407802B1 (ko) | 인공신경망 학습 기반의 실내외 3차원 좌표 및 방위 추정 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |