CN113029154B - 一种盲人导航方法及装置 - Google Patents

一种盲人导航方法及装置 Download PDF

Info

Publication number
CN113029154B
CN113029154B CN202110355669.2A CN202110355669A CN113029154B CN 113029154 B CN113029154 B CN 113029154B CN 202110355669 A CN202110355669 A CN 202110355669A CN 113029154 B CN113029154 B CN 113029154B
Authority
CN
China
Prior art keywords
current
handheld terminal
position information
module
obstacle detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110355669.2A
Other languages
English (en)
Other versions
CN113029154A (zh
Inventor
高坤伦
刘小青
俞益洲
李一鸣
乔昕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Shenrui Bolian Technology Co Ltd
Shenzhen Deepwise Bolian Technology Co Ltd
Original Assignee
Beijing Shenrui Bolian Technology Co Ltd
Shenzhen Deepwise Bolian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shenrui Bolian Technology Co Ltd, Shenzhen Deepwise Bolian Technology Co Ltd filed Critical Beijing Shenrui Bolian Technology Co Ltd
Priority to CN202110355669.2A priority Critical patent/CN113029154B/zh
Publication of CN113029154A publication Critical patent/CN113029154A/zh
Application granted granted Critical
Publication of CN113029154B publication Critical patent/CN113029154B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种盲人导航方法及装置。所述方法包括:根据当前手持终端的视频模块拍摄的视频图像进行障碍物检测;根据当前手持终端的GPS模块输出的当前位置信息、历史位置信息和其它手持终端的历史位置信息,对当前手持终端的行进方向进行预测;融合障碍物检测结果和基于位置信息的预测结果,对当前手持终端的行进方向进行预测。本发明基于多模态融合进行导航预测;基于位置信息的预测方法,不但利用当前手持终端的历史数据,还融合了其它手持终端在与当前手持终端相同路段的历史数据,明显提高了模型的精度,从而提高了导航精度。

Description

一种盲人导航方法及装置
技术领域
本发明涉及大数据、互联网和人工智能技术领域,具体涉及一种盲人导航方法及装置。
背景技术
根据第二次全国残疾人抽样调查结果,我国视力残疾人数超过1260万人。而根据世界卫生组织估算,全球实际残疾人数约为2.8亿人,其中全盲人士超过3900万人。城市发展步伐加快,城市交通路况复杂且更新速度加快,传统的盲人导航系统很难满足实时性和准确性的需求,无法为盲人出行带来足够的安全保障和效率提升。一直以来,国内外学者和研究人员针对构建更加智能的盲人导航系统做出了诸多研究。有学者利用3G无线网络和GPS构建盲人导航服务系统,盲人导航终端将盲人当前地理位置和前往目的地信息通过3G网络上传到数据服务中心,数据服务中心计算得到最短出行路线后返回给终端,从而达到导航服务的目的。还有学者利用在盲道上嵌入定位芯片,远程协助平台利用定位芯片位置信息绘制出盲人专用的电子地图,从而能够精准地向终端发出最佳导航线路,有效缓解了常规GPS方法带来的定位不准确问题。同样为了缓解GPS不够精准的问题,有研究人员提出一种基于物联网环境的盲人导航系统,在盲人手杖底端装入RFID射频识别模块,对盲道上设置的RFID电子标签进行识别,并通过无线网络实现和手持终端的通信连接,手持终端根据RFID识别结果进行路径推荐和规划。
上述现有导航系统存在一个共同问题,那就是基于单个终端的历史数据建模实现导航算法,没有融合多个终端在相同路段的历史数据,可利用的数据样本较少,模型精度不高,很难满足复杂路况下盲人的导航需求。
发明内容
为了解决现有技术中存在的上述问题,本发明提供一种盲人导航方法及装置。
为了实现上述目的,本发明采用以下技术方案。
第一方面,本发明提供一种盲人导航方法,包括:
根据当前手持终端的视频模块拍摄的视频图像进行障碍物检测;
根据当前手持终端的GPS模块输出的当前位置信息、历史位置信息和其它手持终端的历史位置信息,对当前手持终端的行进方向进行预测;
融合障碍物检测结果和基于位置信息的预测结果,对当前手持终端的行进方向进行预测。
进一步地,所述障碍物检测的方法包括:
将所述视频图像输入到卷积神经网络ResNet-50进行特征提取,基于YOLO-V4算法进行障碍物检测。
进一步地,基于位置信息的预测方法包括:
在当前手持终端行走的起始点与当前点之间的路径上选取多个关键位置作为顶点,以顶点之间的连线作为边,以两个顶点之间行走时间的倒数作为边的权重,并增加其它手持终端位于所述起始点与当前点之间的行走数据,得到所有路径组成的图;利用图神经网络对所述图进行学习,实现对当前手持终端行进方向的预测。
进一步地,所述方法还包括:根据当前手持终端的红外模块的发射信号和接收信号进行障碍物检测;障碍物检测结果用于与基于图像的障碍物检测结果和基于位置信息的预测结果融合,实现当前手持终端行进方向的预测。
更进一步地,通过将所述发射信号和接收信号输入到一个长短时记忆神经网络进行特征提取,实现障碍物检测。
第二方面,本发明提供一种盲人导航装置,包括:
图像检测模块,用于根据当前手持终端的视频模块拍摄的视频图像进行障碍物检测;
位置预测模块,用于根据当前手持终端的GPS模块输出的当前位置信息、历史位置信息和其它手持终端的历史位置信息,对当前手持终端的行进方向进行预测;
融合预测模块,用于通过融合障碍物检测结果和基于位置信息的预测结果,对当前手持终端的行进方向进行预测。
进一步地,所述图像检测模块进行障碍物检测的方法包括:
将所述视频图像输入到卷积神经网络ResNet-50进行特征提取,基于YOLO-V4算法进行障碍物检测。
进一步地,所述位置预测模块基于位置信息的预测方法包括:
在当前手持终端行走的起始点与当前点之间的路径上选取多个关键位置作为顶点,以顶点之间的连线作为边,以两个顶点之间行走时间的倒数作为边的权重,并增加其它手持终端位于所述起始点与当前点之间的行走数据,得到所有路径组成的图;利用图神经网络对所述图进行学习,实现对当前手持终端行进方向的预测。
进一步地,所述装置还包括红外检测模块,用于根据当前手持终端的红外模块的发射信号和接收信号进行障碍物检测;障碍物检测结果用于与基于图像的障碍物检测结果和基于位置信息的预测结果融合,实现当前手持终端行进方向的预测。
更进一步地,所述红外检测模块通过将所述发射信号和接收信号输入到一个长短时记忆神经网络进行特征提取,实现障碍物检测。
与现有技术相比,本发明具有以下有益效果。
本发明通过根据当前手持终端的视频模块拍摄的视频图像进行障碍物检测,根据当前手持终端的GPS模块输出的当前位置信息、历史位置信息和其它手持终端的历史位置信息,对当前手持终端的行进方向进行预测,融合障碍物检测结果和基于位置信息的预测结果,实现了对当前手持终端行进方向的多模态预测。本发明基于位置信息的预测方法,不但利用当前手持终端的历史数据,还融合了其它手持终端在与当前手持终端相同路段的历史数据,明显提高了模型的精度,从而提高了导航精度。
附图说明
图1为本发明的实施例一种盲人导航方法的流程图。
图2为手持终端的组成示意图。
图3为多模态融合导航原理示意图。
图4为本发明的实施例一种盲人导航装置的方框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明白,以下结合附图及具体实施方式对本发明作进一步说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例一种盲人导航方法的流程图,包括以下步骤:
步骤101,根据当前手持终端的视频模块拍摄的视频图像进行障碍物检测;
步骤102,根据当前手持终端的GPS模块输出的当前位置信息、历史位置信息和其它手持终端的历史位置信息,对当前手持终端的行进方向进行预测;
步骤103,融合障碍物检测结果和基于位置信息的预测结果,对当前手持终端的行进方向进行预测。
本实施例涉及的硬件设备主要包括多个手持终端和云端服务器。手持终端一般由用户随身携带,或安装在用户的手杖上。手持终端的结构示意图如图2所示,主要包括语音模块、GPS模块、红外模块、视频模块和5G通信模块。语音模块用于实现用户与手持终端的交互,如向用户播放导航语音;GPS模块用于实时获得手持终端的空间位置坐标;红外模块用于发射和接收红外信号,云服务器根据所述红外发射和接收信号检测附近是否有障碍物;视频模块用于拍摄视频图像,云服务器根据所述视频图像检测附近是否有障碍物;5G通信模块用于实现手持终端与服务器之间的数据通信,比如,向云服务器上传上述各模块的输出数据,或接收云服务器发来的数据处理结果。云服务器用于根据各个手持终端上传的数据,按照一定的算法实现对手持终端的导航预测,即直行、左转、右转等。本实施例的步骤101~103就是在云服务器中执行的。
本实施例中,步骤101主要用于根据视频图像进行障碍物检测。行走路径上的障碍物是影响导航预测的主要因素,因此进行障碍物检测非常重要。障碍物检测的方法很多,比如雷达目标探测技术,以及后面实施例的红外检测技术。基于视频图像的障碍物检测是最常用的方法之一,尤其是近距离应用场景,不仅能检测障碍物是否存在,还能识别出障碍物的类别甚至名称。基于视频图像的障碍物检测,主要是基于物体的图像特征包括光照、天气和路况等信息进行检测。具体的检测方法较多,本实施例对此不作限制。
本实施例中,步骤102主要用于基于手持终端的位置信息进行导航预测。位置信息由GPS模块获得,连接不同时刻的位置可以得到行走路径或轨迹,根据不同时刻物体的位置还可以计算其速度、加速度等状态参数。利用Kalman滤波算法,可以根据物体前几个时刻的位置及速度、加速度值预测下一时刻物体的运动方向和位置,从而实现对运动物体的跟踪和预测。因此,利用Kalman滤波算法即可实现对手持终端的导航预测。随着神经网络技术的发展,人们开始通过构建神经网络结构模型,利用历史数据对所述模型进行训练,使用训练好的模型进行导航预测。由于神经网络在建模方面的突出优势,可以获得比Kalman滤波算法更高的导航预测精度。本实施例对具体的导航预测方法不作限制。与现有技术不同的是,本实施例不只利用当前手持终端的数据进行导航预测,还融合其它所有手持终端的数据,从而获得更高的导航预测精度。
本实施例中,步骤103主要用于融合步骤101的障碍物检测结果和步骤102基于位置信息的预测结果,得到最终的导航预测结果。由于步骤102基于位置信息的预测,实际上是没有考虑障碍物因素的影响,因此,为了保证安全,须将两种结果进行融合,实现对障碍物的避让。
作为一可选实施例,进行障碍物检测的方法包括:
将所述视频图像输入到卷积神经网络ResNet-50进行特征提取,基于YOLO-V4算法进行障碍物检测。
本实施例给出了一种基于视频图像进行障碍物检测的技术方案。YOLO-V4是最近推出的基于深度学习的端到端实时目标检测方法,是在原有YOLO目标检测架构的基础上,采用了近些年卷积神经网络CNN领域中最优秀的优化策略。在视觉神经系统中,一个神经元的感受野是指视网膜上的特定区域,只有这个区域内的刺激才能够激活该神经元。CNN就是基于生物学上的这种感受野机制提出来的。CNN是一种前馈神经网络,但与一般的全连接前馈神经网络不同的是,它的卷积层具有局部连接和权重共享的特性,因此能够大大减小权重参数的数量,从而减小模型的复杂程度和提高运行速度。一个典型的CNN是由卷积层、汇聚层(或池化层、下采样层)、全连接层交叉堆叠而成的。卷积层的作用是通过卷积核与输入图像的卷积运算提取一个局部区域的特征,不同的卷积核相当于不同的特征提取器。汇聚层的作用是进行特征选择,降低特征数量,从而进一步减少参数数量。一般采用最大汇聚法和平均汇聚法。全连接层用于对得到的不同特征进行融合。目前比较典型的CNN结构有LeNet、AlexNet和ResNet,YOLO-V4采用的CNN是ResNet-50。目前主流的深度学习目标检测模型包括双阶段模型和单阶段模型,双阶段模型往往更加复杂且运行效率不高,难以满足实时性的需求。因此,本实施例采用单阶段目标检测算法YOLO-V4,既保证了物体(甚至是小物体)检测的精度,也保证了模型运行的速度。由于用来训练的图片来自所有视障人群手持终端上传的数据,覆盖了不同天气、光照等条件,因此最终模型可以很好地预测复杂条件下的障碍物。
作为一可选实施例,基于位置信息的预测方法包括:
在当前手持终端行走的起始点与当前点之间的路径上选取多个关键位置作为顶点,以顶点之间的连线作为边,以两个顶点之间行走时间的倒数作为边的权重,并增加其它手持终端位于所述起始点与当前点之间的行走数据,得到所有路径组成的图;利用图神经网络对所述图进行学习,实现对当前手持终端行进方向的预测。
本实施例给出了一种基于位置信息利用图神经网络进行预测的技术方案。图神经网络是将消息传递的思想扩展到图结构数据的神经网络。对于一个图结构G(v,e),其中v表示顶点集合,e表示边集合。每个顶点对应数据集中的一个对象,每条边表示两个顶点之间的依赖关系。图神经网络主要用于判断社交网络中彼此的亲密程度,进行金融行业的风险管控以及通过计算运动轨迹的最短路径进行导航预测。本实施例就是最后一种应用。在本实施例中,图结构中的每个顶点为行走路径上的关键位置(关键位置一般包括路口、拐弯处等),每个顶点可以用一个固定维度的特征向量表示,在初始状态下,该特征向量的值可以利用高斯函数进行初始化。连接两个顶点的边的权重与行走时间成反比,与行走速度成正比,行走时间越少、速度越大,权重就越大。与现有技术不同的是,本实施例中的图结构不仅包含当前手持终端的路径,还包括其它所有手持终端的不同路径,因此训练结果融合了所有手持终端的信息,能够提高导航预测的精度。
作为一可选实施例,所述方法还包括:根据当前手持终端的红外模块的发射信号和接收信号进行障碍物检测;障碍物检测结果用于与基于图像的障碍物检测结果和基于位置信息的预测结果融合,实现当前手持终端行进方向的预测。
本实施例给出了一种提高障碍物检测精度的技术方案。本实施例通过引入红外障碍物检测,将其检测结果与基于图像识别进行障碍物检测的结果融合,来提高障碍物检测精度,从而提高导航预测精度。图3所示是一种3模态融合的示意图,将3种模态提取的相同维度的特征融合在一起,输入到后续神经网络全连接层。全连接层用来学习多模态特征的唯一表示,全连接层再连接到带有SoftMax激活函数的输出层,构成完整的端到端深度神经网络模型,最终模型输出导航预测的分类结果。为了更精细化导航,本实施例将预测看做5分类任务,分别对应直行、左前方直行、右前方直行、左转、右转。
红外障碍物检测原理与雷达目标探测原理相似,都是通过向目标发射信号,并接收目标反射的回波信号,将回波信号的幅度大小与设定的阈值进行比较,如果超过设定的阈值,就认为检测到目标(障碍物)。根据接收信号滞后发射信号的时间,还可以计算与障碍物的距离(滞后时间与光速积的一半)。
作为一可选实施例,通过将所述发射信号和接收信号输入到一个长短时记忆神经网络进行特征提取,实现障碍物检测。
本实施例给出了红外障碍物检测的一种技术方案。据前述,红外障碍物检测,需要同时对红外发射信号和红外接收信号进行处理,因此,本实施例采用一个长短时记忆神经网络LSTM,通过对输入的红外发射信号和红外接收信号进行特征提取,实现障碍物检测。LSTM属于循环神经网络RNN。在前馈神经网络中,信息的传递是单向的,每次输入都是独立的,即网络的输出只依赖于当前的输入。但在很多现实任务中,网络的输出不仅依赖于当前时刻的输入,还与过去一段时间的输出相关;另外,前馈神经网络要求输入和输出的维数都是固定的,因此不能处理长度可变的时序或序列数据,如视频、语音和文本等。RNN是一类具有短期记忆功能的神经网络,其神经元不但可以接受其它神经元的信息,还可以接受自身的信息,形成具有环路的网络结构。因此,RNN可用来处理时序数据。但RNN在学习过程中存在梯度消失或爆炸问题,很难建模长时间间隔的状态之间的依赖关系。为了改善RNN的长程依赖问题,一种很好的解决方案是引入门控机制来控制信息的累积速度,包括有选择地加入新的信息,并有选择地遗忘之前累积的信息。LSTM就是这样一种引入了输入门、遗忘门和输出门的RNN。输入门用于控制当前时刻的候选状态需要有多少信息进行保存;遗忘门用于控制上一时刻的内部状态需要遗忘多少信息;输出门用于控制当前时刻的内部状态有多少信息需要输出给外部状态。而红外发射信号和接收信号就属于间隔时间较长的时序信号,因此,本实施例采用LSTM进行障碍物检测。
图4为本发明实施例一种盲人导航装置的组成示意图,所述装置包括:
图像检测模块11,用于根据当前手持终端的视频模块拍摄的视频图像进行障碍物检测;
位置预测模块12,用于根据当前手持终端的GPS模块输出的当前位置信息、历史位置信息和其它手持终端的历史位置信息,对当前手持终端的行进方向进行预测;
融合预测模块13,用于通过融合障碍物检测结果和基于位置信息的预测结果,对当前手持终端的行进方向进行预测。
本实施例的装置,可以用于执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。后面的实施例也是如此,均不再展开说明。
作为一可选实施例,所述图像检测模块11进行障碍物检测的方法包括:
将所述视频图像输入到卷积神经网络ResNet-50进行特征提取,基于YOLO-V4算法进行障碍物检测。
作为一可选实施例,所述位置预测模块12基于位置信息的预测方法包括:
在当前手持终端行走的起始点与当前点之间的路径上选取多个关键位置作为顶点,以顶点之间的连线作为边,以两个顶点之间行走时间的倒数作为边的权重,并增加其它手持终端位于所述起始点与当前点之间的行走数据,得到所有路径组成的图;利用图神经网络对所述图进行学习,实现对当前手持终端行进方向的预测。
作为一可选实施例,所述装置还包括红外检测模块,用于根据当前手持终端的红外模块的发射信号和接收信号进行障碍物检测;障碍物检测结果用于与基于图像的障碍物检测结果和基于位置信息的预测结果融合,实现当前手持终端行进方向的预测。
作为一可选实施例,所述红外检测模块通过将所述发射信号和接收信号输入到一个长短时记忆神经网络进行特征提取,实现障碍物检测。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (8)

1.一种盲人导航方法,其特征在于,包括以下步骤:
根据当前手持终端的视频模块拍摄的视频图像进行障碍物检测;
根据当前手持终端的GPS模块输出的当前位置信息、历史位置信息和其它手持终端的历史位置信息,对当前手持终端的行进方向进行预测:在当前手持终端行走的起始点与当前点之间的路径上选取多个关键位置作为顶点,以顶点之间的连线作为边,以两个顶点之间行走时间的倒数作为边的权重,并增加其它手持终端位于所述起始点与当前点之间的行走数据,得到所有路径组成的图;利用图神经网络对所述图进行学习,实现对当前手持终端行进方向的预测;
融合障碍物检测结果和基于位置信息的预测结果,对当前手持终端的行进方向进行预测。
2.根据权利要求1所述的盲人导航方法,其特征在于,所述障碍物检测的方法包括:
将所述视频图像输入到卷积神经网络ResNet-50进行特征提取,基于YOLO-V4算法进行障碍物检测。
3.根据权利要求1所述的盲人导航方法,其特征在于,所述方法还包括:根据当前手持终端的红外模块的发射信号和接收信号进行障碍物检测;障碍物检测结果用于与基于图像的障碍物检测结果和基于位置信息的预测结果融合,实现当前手持终端行进方向的预测。
4.根据权利要求3所述的盲人导航方法,其特征在于,通过将所述发射信号和接收信号输入到一个长短时记忆神经网络进行特征提取,实现障碍物检测。
5.一种盲人导航装置,其特征在于,包括:
图像检测模块,用于根据当前手持终端的视频模块拍摄的视频图像进行障碍物检测;
位置预测模块,用于根据当前手持终端的GPS模块输出的当前位置信息、历史位置信息和其它手持终端的历史位置信息,对当前手持终端的行进方向进行预测:在当前手持终端行走的起始点与当前点之间的路径上选取多个关键位置作为顶点,以顶点之间的连线作为边,以两个顶点之间行走时间的倒数作为边的权重,并增加其它手持终端位于所述起始点与当前点之间的行走数据,得到所有路径组成的图;利用图神经网络对所述图进行学习,实现对当前手持终端行进方向的预测;
融合预测模块,用于通过融合障碍物检测结果和基于位置信息的预测结果,对当前手持终端的行进方向进行预测。
6.根据权利要求5所述的盲人导航装置,其特征在于,所述图像检测模块进行障碍物检测的方法包括:
将所述视频图像输入到卷积神经网络ResNet-50进行特征提取,基于YOLO-V4算法进行障碍物检测。
7.根据权利要求5所述的盲人导航装置,其特征在于,所述装置还包括红外检测模块,用于根据当前手持终端的红外模块的发射信号和接收信号进行障碍物检测;障碍物检测结果用于与基于图像的障碍物检测结果和基于位置信息的预测结果融合,实现当前手持终端行进方向的预测。
8.根据权利要求7所述的盲人导航装置,其特征在于,所述红外检测模块通过将所述发射信号和接收信号输入到一个长短时记忆神经网络进行特征提取,实现障碍物检测。
CN202110355669.2A 2021-04-01 2021-04-01 一种盲人导航方法及装置 Active CN113029154B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110355669.2A CN113029154B (zh) 2021-04-01 2021-04-01 一种盲人导航方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110355669.2A CN113029154B (zh) 2021-04-01 2021-04-01 一种盲人导航方法及装置

Publications (2)

Publication Number Publication Date
CN113029154A CN113029154A (zh) 2021-06-25
CN113029154B true CN113029154B (zh) 2022-07-12

Family

ID=76454355

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110355669.2A Active CN113029154B (zh) 2021-04-01 2021-04-01 一种盲人导航方法及装置

Country Status (1)

Country Link
CN (1) CN113029154B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721093B (zh) * 2023-08-03 2023-10-31 克伦斯(天津)轨道交通技术有限公司 基于神经网络的地铁轨道障碍物检测方法和系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101368828A (zh) * 2008-10-15 2009-02-18 同济大学 基于计算机视觉的盲人导航方法及系统
CN105933857B (zh) * 2015-11-25 2019-05-14 中国银联股份有限公司 一种移动终端位置预测方法及装置
CN108387917A (zh) * 2018-01-16 2018-08-10 达闼科技(北京)有限公司 导盲方法、电子设备和计算机程序产品
CN108319982A (zh) * 2018-02-06 2018-07-24 贵州电网有限责任公司 一种电力巡线无人机多传感器数据融合障碍物检测方法
CN108845324B (zh) * 2018-06-26 2022-09-23 北京小米移动软件有限公司 障碍物识别方法、装置、设备及存储介质
EP3948821A1 (en) * 2019-04-05 2022-02-09 NEC Laboratories Europe GmbH Method and system for supporting autonomous driving of an autonomous vehicle
CN111665861A (zh) * 2020-05-19 2020-09-15 中国农业大学 一种轨迹跟踪控制方法、装置、设备和存储介质
CN111942407B (zh) * 2020-07-31 2022-09-23 商汤集团有限公司 轨迹预测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113029154A (zh) 2021-06-25

Similar Documents

Publication Publication Date Title
US10929713B2 (en) Semantic visual landmarks for navigation
US20190145765A1 (en) Three Dimensional Object Detection
WO2021249071A1 (zh) 一种车道线的检测方法及相关设备
CN113506317B (zh) 一种基于Mask R-CNN和表观特征融合的多目标跟踪方法
CN106970615A (zh) 一种深度强化学习的实时在线路径规划方法
Sharma et al. Pedestrian intention prediction for autonomous vehicles: A comprehensive survey
CN112541449A (zh) 一种基于无人机航拍视角的行人轨迹预测方法
CN112863186B (zh) 一种基于车载无人机的逃逸车辆快速识别和追踪方法
CN112101527B (zh) 识别车道变化的方法和装置、电子设备和存储介质
CN113029154B (zh) 一种盲人导航方法及装置
CN115662166A (zh) 一种自动驾驶数据处理方法及自动驾驶交通系统
Khalkhali et al. Situation assessment-augmented interactive Kalman filter for multi-vehicle tracking
Wei et al. MM-Loc: Cross-sensor indoor smartphone location tracking using multimodal deep neural networks
Xu et al. Trajectory prediction for autonomous driving with topometric map
Li et al. Pedestrian motion state estimation from 2d pose
Khalil et al. Integration of motion prediction with end-to-end latent RL for self-driving vehicles
CN113347559B (zh) 一种基于深度学习的强鲁棒性无线定位方法
Zheng et al. BRR-DQN: UAV path planning method for urban remote sensing images
CN115880332A (zh) 一种低空飞行器视角的目标跟踪方法
CN115565388A (zh) 基于多通道车辆检测与立体特征标注的交通灯控制方法
Lian et al. Causal temporal–spatial pedestrian trajectory prediction with goal point estimation and contextual interaction
Wang et al. LSTM-based prediction method of surrounding vehicle trajectory
Zernetsch et al. Cyclist Trajectory Forecasts by Incorporation of Multi-View Video Information
Bhavana et al. Exploring the Current State of Road Lane Detection: A Comprehensive Survey
Su et al. A Multi-branch Network with Internal Feature Fusion for Road Risk Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant