CN116772860A - 基于无线定位技术与视觉人工智能融合的新型室内定位系统 - Google Patents
基于无线定位技术与视觉人工智能融合的新型室内定位系统 Download PDFInfo
- Publication number
- CN116772860A CN116772860A CN202310758431.3A CN202310758431A CN116772860A CN 116772860 A CN116772860 A CN 116772860A CN 202310758431 A CN202310758431 A CN 202310758431A CN 116772860 A CN116772860 A CN 116772860A
- Authority
- CN
- China
- Prior art keywords
- positioning
- visual
- target
- artificial intelligence
- wireless
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 68
- 238000005516 engineering process Methods 0.000 title claims abstract description 30
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 29
- 230000010354 integration Effects 0.000 title claims abstract description 12
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 9
- 238000013136 deep learning model Methods 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 claims description 4
- 238000007500 overflow downdraw method Methods 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 abstract description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及室内定位技术领域,公开了一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,包括视觉人工智能定位模块,用来在图像中检测出目标并确定其方向和位置;无线定位模块,用来获取物体的位置信息;数据融合模块,用来将视觉定位和无线定位得到的数据融合,计算出更精确的物体位置。本发明利用视觉人工智能对目标的方向,位置进行估计。这些数据再结合传统定位技术得到的位置信息,互相补充,利用多传感器融合技术,提高了精度及定位稳定性,减少了定位死角,拓展了传统定位技术的应用场景。
Description
技术领域
本发明涉及室内定位技术领域,尤其涉及基于无线定位技术与视觉人工智能融合的新型室内定位系统。
背景技术
目前主流的室内定位技术包括了以下几种:
1.Wi-Fi定位:通过分析Wi-Fi信号的强度(RSSI)或者信号到达时延(TDOA/TOA)来定位。Wi-Fi定位适用范围广泛,很多设备都支持Wi-Fi,所以不需要额外的硬件就可以实现,定位精度通常能达到2-5米。
2.蓝牙定位:通常使用低功耗蓝牙(BluetoothLowEnergy/BLE)的定位方法,它利用蓝牙信标(Beacon)发送的信号来计算位置,或者利用信号到达角度AoA(ArrivalofAngle)等方式来判断目标方位。
3.超宽带(UWB):UWB的精度相较于Wi-Fi和蓝牙更高,可以精确到厘米级别。UWB发射器和接收器之间的距离可以通过测量无线电脉冲的传播时间来确定,常见的方法有TDOA(TimeDifferenceofArrival,到达时间差)和ToF(TimeofFlight,飞行时间)。
4.红外和超声波定位:这些技术通常用于特殊的环境,比如医院或者工业环境,它们可以提供高精度的定位信息,但需要额外的硬件设备。
5.基于视觉的定位:这种定位方法依赖目标设备上的摄像头和图像处理技术,如视觉SLAM(SimultaneousLocalizationandMapping)等。同样的,这类方法大都需要额外的硬件支持。
然而目前的室内定位技术的应用也受到了多种因素的制约:
1.多径效应:无线信号可能会反射、折射或者散射,导致到达接收器的信号经过了多条路径。这种多径效应会导致测量误差,影响定位精度。
2.障碍物:墙壁、天花板、地板和其它室内物体都会引起信号衰减,尤其是高频信号,影响定位精度。初期的建模难以适应日后室内建筑环境的变化。
3.环境噪声:在信号噪声较大的环境中,无线信号可能会受到干扰,导致定位精度下降。
4.功耗:多数的定位目标设备依赖电池供电,设备的功耗直接影响电池的寿命。如果设备的功耗很高,电池的使用时间将会缩短,需要更加频繁地更换或充电,增加了设备的维护成本。目前的室内定位应用中,多传感器融合以及SLAM等依赖视觉信号处理的算法,都是目标设备电源管理的极大挑战。
5.数据价值单一/信息孤岛:大多数的室内定位技术只能提供位置信息,缺乏其他的上下文信息。例如,定位数据可能无法反映用户的行为模式,或者设备的状态。
发明内容
(一)解决的技术问题
本发明主要是解决上述现有技术所存在的技术问题,提供一种基于无线定位技术与视觉人工智能融合的新型室内定位系统。
(二)技术方案
为了实现上述目的,本发明采用了如下技术方案:
一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,包括视觉人工智能定位模块,用来在图像中检测出目标并确定其方向和位置;无线定位模块,用来获取物体的位置信息;数据融合模块,用来将视觉定位和无线定位得到的数据融合,计算出更精确的物体位置。
进一步的,还包括视觉目标属性分析模块,用来利用视觉人工智能对目标进行进一步的属性分析。
进一步的,还包括目标属性信息与位置信息的绑定模块,用来对将所有得到的位置和属性信息进行整合。
进一步的,所述视觉人工智能定位模块的定位方法包括以下步骤:
1)图像采集:使用视觉传感器获取室内的实时图像;
2)视觉识别目标:将图像输入到深度学习模型,识别并标注图像中的物体;
3)视觉定位目标:使用单目深度估计技术或者多目或者专用深度相机,计算出图像中各物体相对于摄像头的深度,依据深度信息以及目标在图像中的位置,估算出目标在应用区域的位置并记录目标运动轨迹。
进一步的,所述数据融合模块的融合方法包括以下步骤:
1)定义一个视觉人工智能定位模块与无线定位都能清晰覆盖的狭小区域作为初始匹配点,如果视觉定位目标与无线定位目标在此重合,系统标注该目标匹配成功并绑定其视觉定位信息,附加属性以及无线定位信息;
2)融合算法针对同一目标会被反复执行,目标的视觉属性信息也会被适时更新,各个定位模块的统计参数也会被适时修正。
有益效果
本发明提供了一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,具备以下有益效果:
1,利用视觉人工智能对目标的方向,位置进行估计。这些数据再结合传统定位技术得到的位置信息,互相补充,利用多传感器融合技术,提高了精度及定位稳定性,减少了定位死角。
2,在指定的场所,使用有限的,独立的视觉传感器能捕捉所有感兴趣的目标的位置信息和其它感兴趣的属性,这些固定的视觉传感器通常使用外置电源,因而不会为移动目标带来额外的功耗。
3,除了位置估计以外,视觉人工智能还能对目标的其它属性进行分析和标定,这些信息结合位置信息,能产生更多的应用场景。
附图说明
图1为本发明的结构示意图;
图2为本发明的执行流程示意图;
具体实施方式:
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例
一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,包括视觉人工智能定位模块,用来在图像中检测出目标并确定其方向和位置;无线定位模块,用来获取物体的位置信息;数据融合模块,用来将视觉定位和无线定位得到的数据融合,计算出更精确的物体位置;视觉目标属性分析模块,用来利用视觉人工智能对目标进行进一步的属性分析;目标属性信息与位置信息的绑定模块,用来对将所有得到的位置和属性信息进行整合。
视觉人工智能定位模块的定位方法包括以下步骤:
1)图像采集:使用视觉传感器获取室内的实时图像;
2)视觉识别目标:将图像输入到深度学习模型,识别并标注图像中的物体;
3)视觉定位目标:使用单目深度估计技术或者多目或者专用深度相机,计算出图像中各物体相对于摄像头的深度,依据深度信息以及目标在图像中的位置,估算出目标在应用区域的位置并记录目标运动轨迹。
数据融合模块的融合方法包括以下步骤:
1)定义一个视觉人工智能定位模块与无线定位都能清晰覆盖的狭小区域作为初始匹配点,如果视觉定位目标与无线定位目标在此重合,系统标注该目标匹配成功并绑定其视觉定位信息,附加属性以及无线定位信息;
2)融合算法针对同一目标会被反复执行,目标的视觉属性信息也会被适时更新,各个定位模块的统计参数也会被适时修正。
具体的实现包括以下步骤:
1.图像采集:使用视觉传感器获取室内的实时图像。
2.视觉识别目标:将图像输入到深度学习模型(例如CNN),识别并标注图像中的物体。
3.视觉定位目标:使用单目深度估计技术(软件)或者多目甚至专用深度相机(硬件),计算出图像中各物体相对于摄像头的深度。依据深度信息以及目标在图像中的位置,估算出目标在应用区域的位置并记录目标运动轨迹。
4.无线定位目标:使用传统的室内定位技术(如Wi-Fi、蓝牙或UWB等),获取物体的位置信息。
5.视觉定位目标与无线定位目标的匹配与绑定:系统通常定义一个视觉定位与无线定位都能清晰覆盖的狭小区域(如图.1中的“初始匹配点”)。如果视觉定位目标与无线定位目标在此重合,系统标注该目标匹配成功并绑定其视觉定位信息,附加属性以及无线定位信息。
6.数据融合算法:将视觉定位和无线定位得到的数据融合,通过算法(如卡尔曼滤波器或粒子滤波器)计算出更精确的物体位置。融合算法针对同一目标会被反复执行,目标的视觉属性信息也会被适时更新,各个定位模块的统计参数也会被适时修正。
7.视觉目标属性分析:利用视觉人工智能对目标进行进一步的属性分析,如物体类型、状态、行为等。这些属性将被附加到特定目标之上。
8.绑定目标属性信息与位置信息:将所有得到的信息(精确位置、物体类型、状态、行为等)进行整合,为具体的应用场景提供支持,如智能家居控制、工业监测、零售服务等。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (5)
1.一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:包括视觉人工智能定位模块,用来在图像中检测出目标并确定其方向和位置;无线定位模块,用来获取物体的位置信息;数据融合模块,用来将视觉定位和无线定位得到的数据融合,计算出更精确的物体位置。
2.根据权利要求1所述的一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:还包括视觉目标属性分析模块,用来利用视觉人工智能对目标进行进一步的属性分析。
3.根据权利要求2所述的一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:还包括目标属性信息与位置信息的绑定模块,用来对将所有得到的位置和属性信息进行整合。
4.根据权利要求1-3任一所述的一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:所述视觉人工智能定位模块的定位方法包括以下步骤:
1)图像采集:使用视觉传感器获取室内的实时图像;
2)视觉识别目标:将图像输入到深度学习模型,识别并标注图像中的物体;
3)视觉定位目标:使用单目深度估计技术或者多目或者专用深度相机,计算出图像中各物体相对于摄像头的深度,依据深度信息以及目标在图像中的位置,估算出目标在应用区域的位置并记录目标运动轨迹。
5.根据权利要求1-3任一所述的一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:所述数据融合模块的融合方法包括以下步骤:
1)定义一个视觉人工智能定位模块与无线定位都能清晰覆盖的狭小区域作为初始匹配点,如果视觉定位目标与无线定位目标在此重合,系统标注该目标匹配成功并绑定其视觉定位信息,附加属性以及无线定位信息;
2)融合算法针对同一目标反复执行,目标的视觉属性信息也实时更新,各个定位模块的统计参数也会被适时修正。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310758431.3A CN116772860A (zh) | 2023-06-26 | 2023-06-26 | 基于无线定位技术与视觉人工智能融合的新型室内定位系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310758431.3A CN116772860A (zh) | 2023-06-26 | 2023-06-26 | 基于无线定位技术与视觉人工智能融合的新型室内定位系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116772860A true CN116772860A (zh) | 2023-09-19 |
Family
ID=87992661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310758431.3A Pending CN116772860A (zh) | 2023-06-26 | 2023-06-26 | 基于无线定位技术与视觉人工智能融合的新型室内定位系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116772860A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117177174A (zh) * | 2023-11-03 | 2023-12-05 | 江苏达海智能系统股份有限公司 | 一种基于机器视觉与wsn的室内定位方法及系统 |
CN119723417A (zh) * | 2024-12-13 | 2025-03-28 | 华北科技学院(中国煤矿安全技术培训中心) | 一种基于WiFi信号定位的楼宇火灾演练评价系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111413970A (zh) * | 2020-03-18 | 2020-07-14 | 天津大学 | 超宽带与视觉融合的室内机器人定位与自主导航方法 |
CN113011380A (zh) * | 2021-04-09 | 2021-06-22 | 同济大学 | 一种毫米波雷达视觉前置融合装置及目标识别方法 |
US20210360368A1 (en) * | 2018-03-26 | 2021-11-18 | Boe Technology Group Co., Ltd. | Indoor Positioning Method, Indoor Positioning System, Indoor Positioning Apparatus and Computer Readable Medium |
CN113706612A (zh) * | 2021-10-28 | 2021-11-26 | 天地(常州)自动化股份有限公司 | 融合uwb和单目视觉slam的煤矿井下车辆定位方法 |
CN113988228A (zh) * | 2021-09-14 | 2022-01-28 | 中国科学院信息工程研究所 | 一种基于rfid和视觉融合的室内监控方法及系统 |
WO2022126603A1 (en) * | 2020-12-18 | 2022-06-23 | Robert Bosch Gmbh | Localization system and method for mobile equipment |
-
2023
- 2023-06-26 CN CN202310758431.3A patent/CN116772860A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210360368A1 (en) * | 2018-03-26 | 2021-11-18 | Boe Technology Group Co., Ltd. | Indoor Positioning Method, Indoor Positioning System, Indoor Positioning Apparatus and Computer Readable Medium |
CN111413970A (zh) * | 2020-03-18 | 2020-07-14 | 天津大学 | 超宽带与视觉融合的室内机器人定位与自主导航方法 |
WO2022126603A1 (en) * | 2020-12-18 | 2022-06-23 | Robert Bosch Gmbh | Localization system and method for mobile equipment |
CN113011380A (zh) * | 2021-04-09 | 2021-06-22 | 同济大学 | 一种毫米波雷达视觉前置融合装置及目标识别方法 |
CN113988228A (zh) * | 2021-09-14 | 2022-01-28 | 中国科学院信息工程研究所 | 一种基于rfid和视觉融合的室内监控方法及系统 |
CN113706612A (zh) * | 2021-10-28 | 2021-11-26 | 天地(常州)自动化股份有限公司 | 融合uwb和单目视觉slam的煤矿井下车辆定位方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117177174A (zh) * | 2023-11-03 | 2023-12-05 | 江苏达海智能系统股份有限公司 | 一种基于机器视觉与wsn的室内定位方法及系统 |
CN117177174B (zh) * | 2023-11-03 | 2024-01-26 | 江苏达海智能系统股份有限公司 | 一种基于机器视觉与wsn的室内定位方法及系统 |
CN119723417A (zh) * | 2024-12-13 | 2025-03-28 | 华北科技学院(中国煤矿安全技术培训中心) | 一种基于WiFi信号定位的楼宇火灾演练评价系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nishida et al. | 3D ultrasonic tagging system for observing human activity | |
CN116772860A (zh) | 基于无线定位技术与视觉人工智能融合的新型室内定位系统 | |
CN111337018B (zh) | 定位方法及装置、智能机器人及计算机可读存储介质 | |
CN103605110B (zh) | 基于接收信号强度的室内无源目标定位方法 | |
CN106353725A (zh) | 基于rssi的室内移动目标定位方法 | |
TWI411803B (zh) | 室內目標定位裝置及方法 | |
CN103487050A (zh) | 一种室内移动机器人定位方法 | |
CN112702699B (zh) | 一种融合UWB和LiDAR的室内定位方法 | |
CN106680765A (zh) | 基于分布式组合滤波ins/uwb行人导航系统及方法 | |
CN113344954B (zh) | 边界检测方法、装置、计算机设备、存储介质和传感器 | |
CN112525197B (zh) | 基于图优化算法超宽带惯性导航融合位姿估计方法 | |
CN101630413B (zh) | 一种多机器人跟踪移动目标方法 | |
CN111429515A (zh) | 基于深度学习的机器人避障行为的学习方法 | |
CN113692047A (zh) | 一种超宽带快速定位方法、装置及服务器 | |
CN109005510B (zh) | 基于区域划分的无线传感器网络室内移动目标跟踪方法 | |
CN106443665B (zh) | 基于辅助距离的雷达与esm航迹关联方法 | |
Dai et al. | Analysis of target detection based on UWB NLOS ranging modeling | |
CN107356902B (zh) | 一种WiFi定位指纹数据自动采集方法 | |
Wang et al. | UWB/LiDAR tightly coupled positioning algorithm based on ISSA optimized particle filter | |
Li et al. | An Indoor People Counting and Tracking System using mmWave sensor and sub-sensors | |
Xu et al. | A weight adaptive Kalman filter localization method based on UWB and Odometry | |
CN108332749B (zh) | 一种室内动态追踪定位方法 | |
KR100811887B1 (ko) | 단계적 정확도를 갖는 위치 정보를 선택적으로 제공할 수있는 자율이동로봇의 위치 정보 제공 장치 및 그 방법 | |
CN116225029B (zh) | 一种机器人路径规划方法 | |
CN116594020A (zh) | 一种多点超声波实时定位监测方法、系统及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |