CN116772860A - 基于无线定位技术与视觉人工智能融合的新型室内定位系统 - Google Patents

基于无线定位技术与视觉人工智能融合的新型室内定位系统 Download PDF

Info

Publication number
CN116772860A
CN116772860A CN202310758431.3A CN202310758431A CN116772860A CN 116772860 A CN116772860 A CN 116772860A CN 202310758431 A CN202310758431 A CN 202310758431A CN 116772860 A CN116772860 A CN 116772860A
Authority
CN
China
Prior art keywords
positioning
visual
target
artificial intelligence
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310758431.3A
Other languages
English (en)
Inventor
韩明磊
赵�卓
章梓凌
章琪朗
张震
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Hongrui Iot Technology Co ltd
Original Assignee
Zhejiang Hongrui Iot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Hongrui Iot Technology Co ltd filed Critical Zhejiang Hongrui Iot Technology Co ltd
Priority to CN202310758431.3A priority Critical patent/CN116772860A/zh
Publication of CN116772860A publication Critical patent/CN116772860A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及室内定位技术领域,公开了一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,包括视觉人工智能定位模块,用来在图像中检测出目标并确定其方向和位置;无线定位模块,用来获取物体的位置信息;数据融合模块,用来将视觉定位和无线定位得到的数据融合,计算出更精确的物体位置。本发明利用视觉人工智能对目标的方向,位置进行估计。这些数据再结合传统定位技术得到的位置信息,互相补充,利用多传感器融合技术,提高了精度及定位稳定性,减少了定位死角,拓展了传统定位技术的应用场景。

Description

基于无线定位技术与视觉人工智能融合的新型室内定位系统
技术领域
本发明涉及室内定位技术领域,尤其涉及基于无线定位技术与视觉人工智能融合的新型室内定位系统。
背景技术
目前主流的室内定位技术包括了以下几种:
1.Wi-Fi定位:通过分析Wi-Fi信号的强度(RSSI)或者信号到达时延(TDOA/TOA)来定位。Wi-Fi定位适用范围广泛,很多设备都支持Wi-Fi,所以不需要额外的硬件就可以实现,定位精度通常能达到2-5米。
2.蓝牙定位:通常使用低功耗蓝牙(BluetoothLowEnergy/BLE)的定位方法,它利用蓝牙信标(Beacon)发送的信号来计算位置,或者利用信号到达角度AoA(ArrivalofAngle)等方式来判断目标方位。
3.超宽带(UWB):UWB的精度相较于Wi-Fi和蓝牙更高,可以精确到厘米级别。UWB发射器和接收器之间的距离可以通过测量无线电脉冲的传播时间来确定,常见的方法有TDOA(TimeDifferenceofArrival,到达时间差)和ToF(TimeofFlight,飞行时间)。
4.红外和超声波定位:这些技术通常用于特殊的环境,比如医院或者工业环境,它们可以提供高精度的定位信息,但需要额外的硬件设备。
5.基于视觉的定位:这种定位方法依赖目标设备上的摄像头和图像处理技术,如视觉SLAM(SimultaneousLocalizationandMapping)等。同样的,这类方法大都需要额外的硬件支持。
然而目前的室内定位技术的应用也受到了多种因素的制约:
1.多径效应:无线信号可能会反射、折射或者散射,导致到达接收器的信号经过了多条路径。这种多径效应会导致测量误差,影响定位精度。
2.障碍物:墙壁、天花板、地板和其它室内物体都会引起信号衰减,尤其是高频信号,影响定位精度。初期的建模难以适应日后室内建筑环境的变化。
3.环境噪声:在信号噪声较大的环境中,无线信号可能会受到干扰,导致定位精度下降。
4.功耗:多数的定位目标设备依赖电池供电,设备的功耗直接影响电池的寿命。如果设备的功耗很高,电池的使用时间将会缩短,需要更加频繁地更换或充电,增加了设备的维护成本。目前的室内定位应用中,多传感器融合以及SLAM等依赖视觉信号处理的算法,都是目标设备电源管理的极大挑战。
5.数据价值单一/信息孤岛:大多数的室内定位技术只能提供位置信息,缺乏其他的上下文信息。例如,定位数据可能无法反映用户的行为模式,或者设备的状态。
发明内容
(一)解决的技术问题
本发明主要是解决上述现有技术所存在的技术问题,提供一种基于无线定位技术与视觉人工智能融合的新型室内定位系统。
(二)技术方案
为了实现上述目的,本发明采用了如下技术方案:
一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,包括视觉人工智能定位模块,用来在图像中检测出目标并确定其方向和位置;无线定位模块,用来获取物体的位置信息;数据融合模块,用来将视觉定位和无线定位得到的数据融合,计算出更精确的物体位置。
进一步的,还包括视觉目标属性分析模块,用来利用视觉人工智能对目标进行进一步的属性分析。
进一步的,还包括目标属性信息与位置信息的绑定模块,用来对将所有得到的位置和属性信息进行整合。
进一步的,所述视觉人工智能定位模块的定位方法包括以下步骤:
1)图像采集:使用视觉传感器获取室内的实时图像;
2)视觉识别目标:将图像输入到深度学习模型,识别并标注图像中的物体;
3)视觉定位目标:使用单目深度估计技术或者多目或者专用深度相机,计算出图像中各物体相对于摄像头的深度,依据深度信息以及目标在图像中的位置,估算出目标在应用区域的位置并记录目标运动轨迹。
进一步的,所述数据融合模块的融合方法包括以下步骤:
1)定义一个视觉人工智能定位模块与无线定位都能清晰覆盖的狭小区域作为初始匹配点,如果视觉定位目标与无线定位目标在此重合,系统标注该目标匹配成功并绑定其视觉定位信息,附加属性以及无线定位信息;
2)融合算法针对同一目标会被反复执行,目标的视觉属性信息也会被适时更新,各个定位模块的统计参数也会被适时修正。
有益效果
本发明提供了一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,具备以下有益效果:
1,利用视觉人工智能对目标的方向,位置进行估计。这些数据再结合传统定位技术得到的位置信息,互相补充,利用多传感器融合技术,提高了精度及定位稳定性,减少了定位死角。
2,在指定的场所,使用有限的,独立的视觉传感器能捕捉所有感兴趣的目标的位置信息和其它感兴趣的属性,这些固定的视觉传感器通常使用外置电源,因而不会为移动目标带来额外的功耗。
3,除了位置估计以外,视觉人工智能还能对目标的其它属性进行分析和标定,这些信息结合位置信息,能产生更多的应用场景。
附图说明
图1为本发明的结构示意图;
图2为本发明的执行流程示意图;
具体实施方式:
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例
一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,包括视觉人工智能定位模块,用来在图像中检测出目标并确定其方向和位置;无线定位模块,用来获取物体的位置信息;数据融合模块,用来将视觉定位和无线定位得到的数据融合,计算出更精确的物体位置;视觉目标属性分析模块,用来利用视觉人工智能对目标进行进一步的属性分析;目标属性信息与位置信息的绑定模块,用来对将所有得到的位置和属性信息进行整合。
视觉人工智能定位模块的定位方法包括以下步骤:
1)图像采集:使用视觉传感器获取室内的实时图像;
2)视觉识别目标:将图像输入到深度学习模型,识别并标注图像中的物体;
3)视觉定位目标:使用单目深度估计技术或者多目或者专用深度相机,计算出图像中各物体相对于摄像头的深度,依据深度信息以及目标在图像中的位置,估算出目标在应用区域的位置并记录目标运动轨迹。
数据融合模块的融合方法包括以下步骤:
1)定义一个视觉人工智能定位模块与无线定位都能清晰覆盖的狭小区域作为初始匹配点,如果视觉定位目标与无线定位目标在此重合,系统标注该目标匹配成功并绑定其视觉定位信息,附加属性以及无线定位信息;
2)融合算法针对同一目标会被反复执行,目标的视觉属性信息也会被适时更新,各个定位模块的统计参数也会被适时修正。
具体的实现包括以下步骤:
1.图像采集:使用视觉传感器获取室内的实时图像。
2.视觉识别目标:将图像输入到深度学习模型(例如CNN),识别并标注图像中的物体。
3.视觉定位目标:使用单目深度估计技术(软件)或者多目甚至专用深度相机(硬件),计算出图像中各物体相对于摄像头的深度。依据深度信息以及目标在图像中的位置,估算出目标在应用区域的位置并记录目标运动轨迹。
4.无线定位目标:使用传统的室内定位技术(如Wi-Fi、蓝牙或UWB等),获取物体的位置信息。
5.视觉定位目标与无线定位目标的匹配与绑定:系统通常定义一个视觉定位与无线定位都能清晰覆盖的狭小区域(如图.1中的“初始匹配点”)。如果视觉定位目标与无线定位目标在此重合,系统标注该目标匹配成功并绑定其视觉定位信息,附加属性以及无线定位信息。
6.数据融合算法:将视觉定位和无线定位得到的数据融合,通过算法(如卡尔曼滤波器或粒子滤波器)计算出更精确的物体位置。融合算法针对同一目标会被反复执行,目标的视觉属性信息也会被适时更新,各个定位模块的统计参数也会被适时修正。
7.视觉目标属性分析:利用视觉人工智能对目标进行进一步的属性分析,如物体类型、状态、行为等。这些属性将被附加到特定目标之上。
8.绑定目标属性信息与位置信息:将所有得到的信息(精确位置、物体类型、状态、行为等)进行整合,为具体的应用场景提供支持,如智能家居控制、工业监测、零售服务等。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (5)

1.一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:包括视觉人工智能定位模块,用来在图像中检测出目标并确定其方向和位置;无线定位模块,用来获取物体的位置信息;数据融合模块,用来将视觉定位和无线定位得到的数据融合,计算出更精确的物体位置。
2.根据权利要求1所述的一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:还包括视觉目标属性分析模块,用来利用视觉人工智能对目标进行进一步的属性分析。
3.根据权利要求2所述的一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:还包括目标属性信息与位置信息的绑定模块,用来对将所有得到的位置和属性信息进行整合。
4.根据权利要求1-3任一所述的一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:所述视觉人工智能定位模块的定位方法包括以下步骤:
1)图像采集:使用视觉传感器获取室内的实时图像;
2)视觉识别目标:将图像输入到深度学习模型,识别并标注图像中的物体;
3)视觉定位目标:使用单目深度估计技术或者多目或者专用深度相机,计算出图像中各物体相对于摄像头的深度,依据深度信息以及目标在图像中的位置,估算出目标在应用区域的位置并记录目标运动轨迹。
5.根据权利要求1-3任一所述的一种基于无线定位技术与视觉人工智能融合的新型室内定位系统,其特征在于:所述数据融合模块的融合方法包括以下步骤:
1)定义一个视觉人工智能定位模块与无线定位都能清晰覆盖的狭小区域作为初始匹配点,如果视觉定位目标与无线定位目标在此重合,系统标注该目标匹配成功并绑定其视觉定位信息,附加属性以及无线定位信息;
2)融合算法针对同一目标反复执行,目标的视觉属性信息也实时更新,各个定位模块的统计参数也会被适时修正。
CN202310758431.3A 2023-06-26 2023-06-26 基于无线定位技术与视觉人工智能融合的新型室内定位系统 Pending CN116772860A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310758431.3A CN116772860A (zh) 2023-06-26 2023-06-26 基于无线定位技术与视觉人工智能融合的新型室内定位系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310758431.3A CN116772860A (zh) 2023-06-26 2023-06-26 基于无线定位技术与视觉人工智能融合的新型室内定位系统

Publications (1)

Publication Number Publication Date
CN116772860A true CN116772860A (zh) 2023-09-19

Family

ID=87992661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310758431.3A Pending CN116772860A (zh) 2023-06-26 2023-06-26 基于无线定位技术与视觉人工智能融合的新型室内定位系统

Country Status (1)

Country Link
CN (1) CN116772860A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117177174A (zh) * 2023-11-03 2023-12-05 江苏达海智能系统股份有限公司 一种基于机器视觉与wsn的室内定位方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117177174A (zh) * 2023-11-03 2023-12-05 江苏达海智能系统股份有限公司 一种基于机器视觉与wsn的室内定位方法及系统
CN117177174B (zh) * 2023-11-03 2024-01-26 江苏达海智能系统股份有限公司 一种基于机器视觉与wsn的室内定位方法及系统

Similar Documents

Publication Publication Date Title
Yang et al. A novel NLOS error compensation method based IMU for UWB indoor positioning system
KR102421930B1 (ko) 불안정한 센서를 캘리브레이트하기 위한 시스템 및 방법
WO2019136918A1 (zh) 一种室内定位的方法、服务器及定位系统
CN112533163B (zh) 基于NB-IoT改进的融合超宽带和蓝牙的室内定位方法
CN110026993B (zh) 一种基于uwb及热释电红外传感器的人体跟随机器人
CN102932739B (zh) 超宽带无线定位的非视距传播状态鉴别及数据重构方法
JP2011214920A (ja) 位置推定装置、位置推定方法及びプログラム
US20060227998A1 (en) Method for using networked programmable fiducials for motion tracking
Wendeberg et al. Robust tracking of a mobile beacon using time differences of arrival with simultaneous calibration of receiver positions
CN115808170B (zh) 一种融合蓝牙与视频分析的室内实时定位方法
CN112729301A (zh) 一种基于多源数据融合的室内定位方法
CN116772860A (zh) 基于无线定位技术与视觉人工智能融合的新型室内定位系统
CN109188360A (zh) 一种基于蝙蝠算法的室内可见光三维定位方法
Dai et al. Analysis of target detection based on UWB NLOS ranging modeling
KR100811887B1 (ko) 단계적 정확도를 갖는 위치 정보를 선택적으로 제공할 수있는 자율이동로봇의 위치 정보 제공 장치 및 그 방법
CN107356902B (zh) 一种WiFi定位指纹数据自动采集方法
KR100752580B1 (ko) 위치 추정 방법
Liu et al. A Review of Sensing Technologies for Indoor Autonomous Mobile Robots
Xiao et al. An environmental-adaptive RSSI based indoor positioning approach using RFID
Liang et al. High accuracy robot indoor navigation using visible light positioning and LiDAR fusion
CN108332749B (zh) 一种室内动态追踪定位方法
US20210048503A1 (en) Motion data based processing time window for positioning signals
KR100853185B1 (ko) 영상정보와 무선 센서네트워크를 이용한 사물 인식 및 측위방법 그리고 그 장치
Alba et al. Uncertainty-boosted radiomap-based indoor positioning with RSSI fingerprints
CN111190139B (zh) 一种用于复杂环境中超宽带非视线传输的高精度定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination