CN109540138A - 基于视觉神经网络的室内导航方法、系统及可读存储器 - Google Patents
基于视觉神经网络的室内导航方法、系统及可读存储器 Download PDFInfo
- Publication number
- CN109540138A CN109540138A CN201811342207.1A CN201811342207A CN109540138A CN 109540138 A CN109540138 A CN 109540138A CN 201811342207 A CN201811342207 A CN 201811342207A CN 109540138 A CN109540138 A CN 109540138A
- Authority
- CN
- China
- Prior art keywords
- navigation
- neural network
- picture
- view
- access control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于视觉神经网络的室内导航方法、系统及可读存储器,方法包括:S1.构建基于视觉神经网络模型,并通过预先获取的训练样本进行训练;S2.获取用于导航的导航图像,通过基于视觉神经网络模型对导航图像进行分析,确定导航图像的识别位置;S3.将导航图像进行分块得到至少2个子图像,通过基于视觉神经网络模型对各子图像进行分析,得到各子图像的置信度,以置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。具有不依赖于Wi‑Fi定位系统等环境基础设施,可以直接根据所拍摄的图像实现定位与导航,识别精度高、速度快的等优点。
Description
技术领域
本发明涉及室内导航领域,尤其涉及一种基于视觉神经网络的室内导航方法、系统及可读存储器。
背景技术
随着人口密集度的增加和现代建筑密度的增加,应用于移动设备的室内导航的需求正在变得越来越强。室内导航系统主要需要完成的任务包括地图的构建,数据的采集,导航方法的设计和用户交互的设计。
目前,大多数室内导航系统基于Wi-Fi指纹设计,这种方法需要事先获取完整的室内平面图及Wi-Fi节点的详细信息,地图构建工作需要大量的劳动力,部署时间长,除此之外这种定位方法严重依赖外部设备,一旦Wi-Fi节点出现故障,导航系统将瘫痪。
基于视觉的室内导航系统大多数基于同步定位与地图构建(SLAM)方法,这种方法包含人工设计的特征提取算法,对环境光线和纹理十分敏感,除此之外外观的细微变化将严重影响这种方法的定位精度。
发明内容
本发明要解决的技术问题就在于:针对现有技术存在的技术问题,本发明提供一种不依赖于Wi-Fi定位系统等环境基础设施,可以直接根据所拍摄的图像实现定位与导航,识别精度高、速度快的基于视觉神经网络的室内导航方法、系统及可读存储器。
为解决上述技术问题,本发明提出的技术方案为:一种基于视觉神经网络的室内导航方法,包括:
S1.构建基于视觉神经网络模型,并通过预先获取的训练样本进行训练;所述训练样本是在被导航室内所拍摄,并且标定了拍摄位置的室内图像,所述位置为预设导航路径上的位置;
S2.获取用于导航的导航图像,通过所述基于视觉神经网络模型对所述导航图像进行分析,确定所述导航图像的识别位置;
S3.将所述导航图像进行分块得到至少2个子图像,通过所述基于视觉神经网络模型对各所述子图像进行分析,得到各所述子图像的置信度,以所述置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。
进一步地,所述训练样本的获取方式包括:
沿所述预设的导航路径上的不同位置朝导航方向分别拍摄室内图像作为训练样本,并以拍摄所述室内图像的位置作为该训练样本的标签;
或者:
沿所述预设导航路径朝导航方向拍摄样本视频,将所述样本视频中的图像帧按照预设划分规则分组,每组图像帧标定一个位置;每个图像帧为一个训练样本,该图像帧对应的位置为该训练样本的标签。
进一步地,所述基于视觉神经网络模型输出层的节点数与所标定的位置个数相同;输出层的节点与所述位置一一对应。
进一步地,所述步骤S2的具体步骤包括:
S2.1.获取用于导航的导航图像;
S2.2.通过所述基于视觉神经网络模型对所述导航图像进行分析,得到输出层每个节点所输出的置信度;
S2.3.以满足置信度大于预设的阈值,并且输出该置信度的节点所对应的位置与上一有效识别的位置相同或相邻条件,并以其中置信度最大的节点对应的位置作为所述导航图像的识别位置,本次识别为有效识别,否则本次识别为无效识别;有效识别时跳转至步骤S3。
进一步地,所述步骤S3的具体步骤包括:
S3.1.将所述导航图像进行网格划分分块,得到至少2个的子图像;
S3.2.通过所述基于视觉神经网络模型依次对所述子图像进行分析,以输出层各节点输出置信度的最大值作为该子图像的置信度;
S3.3.以所述置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。
一种基于视觉神经网络的室内导航系统,包括基于视觉神经网络模型和导航方向指引模块;
所述基于视觉神经网络模型通过预先获取的训练样本进行训练,所述训练样本是在被导航室内所拍摄,并且标定了拍摄位置的室内图像,所述位置为预设导航路径上的位置;
所述基于视觉神经网络模型用于对获取的导航图像进行分析,确定所述导航图像的识别位置;
所述基于视觉神经网络模型还用于对由所述导航图像分块得到的子图像进行分析,得到各所述子图像的置信度;
所述导航方向指引模块用于根据各子图像的置信度,确定置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。
进一步地,还包括训练样本生成模块;
所述训练样本生成模块用于获取沿所述预设的导航路径上的不同位置朝导航方向分别拍摄室内图像作为训练样本,并以拍摄所述室内图像的位置作为该训练样本的标签;
或者:
所述训练样本生成模块用于获取沿所述预设导航路径朝导航方向拍摄样本视频,将所述样本视频中的图像帧按照预设划分规则分组,每组图像帧标定一个位置;每个图像帧为一个训练样本,该图像帧对应的位置为该训练样本的标签。
进一步地,所述基于视觉神经网络模型的输出层的节点数与所标定的位置个数相同;输出层的节点与所述位置一一对应。
进一步地,所述基于视觉神经网络模型具体用于:
接收输入的导航图像并进行分析,输出层的每个节点输出所述导航图像属于该节点对应位置的置信度;
以满足置信度大于预设的阈值,并且输出该置信度的节点所对应的位置与上一有效识别的位置相同或相邻条件,并以其中置信度最大的节点对应的位置作为所述导航图像的识别位置,本次识别为有效识别,否则本次识别为无效识别。
进一步地,所述基于视觉神经网络模型还具体用于:将所述导航图像进行网格划分,得到至少2个的子图像;并依次对所述子图像进行分析,以输出层各节点输出置信度的最大值作为该子图像的置信度。
一种可读存储器,存储有可被计算机执行的程序,所述程序被执行时可实现如上任一项所述的基于视觉神经网络的室内导航方法。
与现有技术相比,本发明的优点在于:本发明通过预先获取需要进行导航的室内的图像作为训练样本对基于视觉神经网络模型进行训练,在训练完成后,只需要通过获取该室内的图像作为导航图像,并由基于视觉神经网络模型进行识别,即可以确定拍摄导航图像时所在的位置及导航方向,相对于传统室内导航(如基于Wi-Fi定位导航、蓝牙定位导航等)需要依赖于外部的信号基站等设备才能实现的方式,成本更低,更加灵活方便,同时,基于视觉神经网络模型的算法也很成熟,识别的正确率和精度也很高,完全能够满足室内定位导航的需求,可以实现较高精度的室内定位与导航。
附图说明
图1为本发明具体实施例的流程示意图。
图2为本发明具体实施例预设导航路径及位置点示意图。
图3为本发明具体实施例基于视觉神经网络模型训练过程、定位过程及导航方向确定过程中输入输出示意图。
图4为本发明具体实施例导航图像网格划分及概率分布图示意图。
图5为本发明具体实施例各子图像置信度示意图。
图6为本发明具体实施例一种具体应用场景示意图。
具体实施方式
以下结合说明书附图和具体优选的实施例对本发明作进一步描述,但并不因此而限制本发明的保护范围。
如图1所示,本实施例的一种基于视觉神经网络的室内导航方法,包括:S1.构建基于视觉神经网络模型,并通过预先获取的训练样本进行训练;训练样本是在被导航室内所拍摄,并且标定了拍摄位置的室内图像,位置为预设导航路径上的位置;S2.获取用于导航的导航图像,通过基于视觉神经网络模型对导航图像进行分析,确定导航图像的识别位置;S3.将导航图像进行分块得到至少2个子图像,通过基于视觉神经网络模型对各子图像进行分析,得到各子图像的置信度,以置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。
在本实施例中,训练样本的获取方式包括:沿预设的导航路径上的不同位置朝导航方向分别拍摄室内图像作为训练样本,并以拍摄室内图像的位置作为该训练样本的标签。在本实施例中,以如图2中点n1至点nN之间的连线表示预设的导航路径,在每个点的位置或者每个点所在的位置区域(位置区域是指如图2中所示点两侧短竖线之间的区域),以朝向导航路径方向拍摄至少一张室内图像作为训练样本,并以训练样本的拍摄位置作为该训练样本的标签,如在位置点n1的位置区域拍摄的训练样本,其标签为n1的位置信息,在位置点n2的位置区域拍摄的训练样本,其标签为n2的位置信息。进一步地优选在每个位置区域拍摄5至10张室内图像作为训练样本。当然,需要说明的是,每个位置区域拍摄的训练样本的数量与所确定的位置区域的大小相关,位置区域越大,在位置区域的训练样本的数量可以更多。
或者:在本实施例中,还可以通过如下方式生成训练样本。沿预设导航路径朝导航方向拍摄样本视频,将样本视频中的图像帧按照预设划分规则分组,每组图像帧标定一个位置;每个图像帧为一个训练样本,该图像帧对应的位置为该训练样本的标签。即通过摄像模式沿导航路径拍摄,拍摄过程中优选均速前进,并使得拍摄设备朝向导航路径前方。再从所拍摄的视频中选择图像帧作为训练样本,并确定训练样本的拍摄位置作为训练样本的标签。进一步地,在均速前进的拍摄时,可以按照等时间的方式进行划分成不同的分组,每个分组中图像帧的拍摄位置即为该分组中图像帧的标签。
在本实施例中,如图3所示,基于视觉神经网络模型输出层的节点数与所标定的位置个数相同;输出层的节点与位置一一对应。在训练过程中,如图3中(a)训练过程所示,将训练样本输入基于视觉神经网络模型,并以所输入的训练样本的标签来评价其输出结果,并根据评价结果来修改基于视觉神经网络模型的参数,通过大量的训练样本进行训练后,固定该基于视觉神经网络模型的参数,该模型即可用于室内导航。
在本实施例中,如图3(b)所示,在通过基于视觉神经网络模型进行导航的具体过程中,步骤S2的具体步骤包括:S2.1.获取用于导航的导航图像;S2.2.通过基于视觉神经网络模型对导航图像进行分析,得到输出层每个节点所输出的置信度;S2.3.以满足置信度大于预设的阈值,并且输出该置信度的节点所对应的位置与上一有效识别的位置相同或相邻条件,并以其中置信度最大的节点对应的位置作为导航图像的识别位置,本次识别为有效识别,否则本次识别为无效识别;有效识别时跳转至步骤S3。在导航过程中,拍摄室内的图像作为导航图像,并将该导航图像输入已经训练好的基于视觉神经网络模型,通过该模型的分析,输出该导航图像属于各位置点的置信度Ci n,其中i表示所输入导航图像的编号,n=1、2、……、N,置信度Ci n表示所输入导航图像属于各位置点的概率,置信度越大,说明所输入的导航图像属于对应位置点的概率越高,如置信度Ci 2为0.9,则说明所输入的导航图像(其编号为i)是在位置点n2拍摄的概率为90%。则通过基于视觉神经网络模型的分析,就可以确定所输入的每幅导航图像属于各位置点(n1至nN)的置信度。
当然,需要说明的是,在导航中,也可以直接通过拍摄视频的方式来进行,并将所拍摄的视频分解成不同的图像帧,再将图像帧输入该基于视觉神经网络模型,得到所输入图像帧属于各位置点的置信度Ci n,其中i表示所输入导航图像的编号,即图像帧的帧号。
在本实施例中,通过基于视觉神经网络模型的分析,即可将置信度最高的输出层节点对应的位置点作为所输入导航图像的位置。考虑可能存在的环境噪声对基于视觉神经网络模型的识别结果产生的影响,在本实施例中还对识别结果进行一步的修正。即将基于视觉神经网络模型的输出层各节点所输出的置信度进行从高至低排序,首先,判断置信度最高的节点所对应的位置与前一次有效识别所确定的位置是否为相同位置或相邻位置,如果是,则置信度最高的节点所对应的位置即为本次识别的识别位置,本次识别为有效识别。如果不是,则从排序中选择排在下一位的置信度,判断该置信度是否大于预设的阈值,以及输出该置信度的输出层节点对应的位置与前一有效识别的位置是否为相同或相邻位置,都满足时输出该置信度的输出层节点对应的位置即为本次识别的识别位置,本次识别为有效识别,如果不是,再取下一位的置信度,直到排序号大于预设值,如只取置信度排序的前5位进行分析,当前5位的置信度都不满足前述条件时,则本次识别为无效识别。通过修改,可以进一步的保证定位的准确性,也可以进一步的保证后续导航的准确性。为有效识别时,进入下一步处理,为无效识别时,则完成对本次输入的导航图像的导航,对下一张导航图像进行处理。
在本实施例中,在对导航识别进行有效识别,确定了其位置后,还进一步的对导航图像进行分析,确定导航方向。具体步骤包括;步骤S3的具体步骤包括:S3.1.将导航图像进行网格划分分块,得到至少2个的子图像;S3.2.通过基于视觉神经网络模型依次对子图像进行分析,以输出层各节点输出置信度的最大值作为该子图像的置信度;S3.3.以置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。基于视觉神经网络模型对子图像进行处理如图3(c)所示。
如图4所示,将导航图像进行网格划分,得到至少2张子图像,当然,可以根据需要划分为更多的网格,生成更多的子图像。本实施例优选采用H×K的网格划分,其中H表示水平网格数,取值优选为3至6,M表示竖直网格数,取值优选为3至6。以3×3的网络划分为例进行说明,通过网格划分,导航图像被划分为9张子图像,通过前述基于视觉神经网络模型分别对各子图像进行分析,图3(c)所示,对于每个子图像,基于视觉神经网络模型会输出N个置信度,取N个置信度中最高的置信度作为该子图像的置信度,再将子图像的置信度填入子图像对应的网格中,即可得到导航图像的概率分布图,以导航图像中心指向置信度最高的网格的方向即为导航指引方向。图4是通过颜色来表示置信度的高低,如果采用数字形式,即如图5所示,即导航指引方向为向右,图5中,仅仅只是通过数字来说明导航方向的原理。
本实施例的基于视觉神经网络的室内导航系统,包括基于视觉神经网络模型和导航方向指引模块;基于视觉神经网络模型通过预先获取的训练样本进行训练,训练样本是在被导航室内所拍摄,并且标定了拍摄位置的室内图像,位置为预设导航路径上的位置;基于视觉神经网络模型用于对获取的导航图像进行分析,确定导航图像的识别位置;基于视觉神经网络模型还用于对由导航图像分块得到的子图像进行分析,得到各子图像的置信度;导航方向指引模块用于根据各子图像的置信度,确定置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。通过本导航系统,可以实现上述导航方法。在具体的应用场景中,获取导航图像的设备与基于视觉神经网络模型所部署的设备不一致,如图6所示,通过手机或平板等便携移动客户端设备来获取导航图像,将基于视觉神经网络模型部署有GPU服务器上,GPU服务器接收训练样本,对基于视觉神经网络模型进行训练,在训练完成后,再接收导航图像,进行分析处理,得到定位及导航方向信息,并将定位及导航方向信息传送给移动客户端,对使用者提供导航指引。
在本实施例中,还包括训练样本生成模块;训练样本生成模块用于获取沿预设的导航路径上的不同位置朝导航方向分别拍摄室内图像作为训练样本,并以拍摄室内图像的位置作为该训练样本的标签;或者:训练样本生成模块用于获取沿预设导航路径朝导航方向拍摄样本视频,将样本视频中的图像帧按照预设划分规则分组,每组图像帧标定一个位置;每个图像帧为一个训练样本,该图像帧对应的位置为该训练样本的标签。训练样本生成模块可以部署在GPU服务器上,接收外部设备(如移动客户端)提供的训练样本图像,并在GPU服务器上标注训练样本的标签;也可以直接接收外部设备提供的已标注了标签的训练样本。
在本实施例中,基于视觉神经网络模型的输出层的节点数与所标定的位置个数相同;输出层的节点与位置一一对应。基于视觉神经网络模型具体用于:接收输入的导航图像并进行分析,输出层的每个节点输出导航图像属于该节点对应位置的置信度;以满足置信度大于预设的阈值,并且输出该置信度的节点所对应的位置与上一有效识别的位置相同或相邻条件,并以其中置信度最大的节点对应的位置作为导航图像的识别位置,本次识别为有效识别,否则本次识别为无效识别。
在本实施例中,基于视觉神经网络模型还具体用于:将导航图像进行网格划分,得到至少2个的子图像;并依次对子图像进行分析,以输出层各节点输出置信度的最大值作为该子图像的置信度。基于视觉神经网络模型根据各子图像的置信度,生成概率分布图,并传送给移动客户端,为使用者提供方向指引,也可以直接将各子图像的置信度传送给移动客户端,由移动客户端来生成概率分布图,为使用者提供导航指引。
本实施例的可读存储器,存储有可被计算机执行的程序,程序被执行时可实现如上任一项的基于视觉神经网络的室内导航方法。
上述只是本发明的较佳实施例,并非对本发明作任何形式上的限制。虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明。因此,凡是未脱离本发明技术方案的内容,依据本发明技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均应落在本发明技术方案保护的范围内。
Claims (11)
1.一种基于视觉神经网络的室内导航方法,其特征在于:
S1.构建基于视觉神经网络模型,并通过预先获取的训练样本进行训练;所述训练样本是在被导航室内所拍摄,并且标定了拍摄位置的室内图像,所述位置为预设导航路径上的位置;
S2.获取用于导航的导航图像,通过所述基于视觉神经网络模型对所述导航图像进行分析,确定所述导航图像的识别位置;
S3.将所述导航图像进行分块得到至少2个子图像,通过所述基于视觉神经网络模型对各所述子图像进行分析,得到各所述子图像的置信度,以所述置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。
2.根据权利要求1所述的基于视觉神经网络的室内导航方法,其特征在于:所述训练样本的获取方式包括:
沿所述预设的导航路径上的不同位置朝导航方向分别拍摄室内图像作为训练样本,并以拍摄所述室内图像的位置作为该训练样本的标签;
或者:
沿所述预设导航路径朝导航方向拍摄样本视频,将所述样本视频中的图像帧按照预设划分规则分组,每组图像帧标定一个位置;每个图像帧为一个训练样本,该图像帧对应的位置为该训练样本的标签。
3.根据权利要求2所述的基于视觉神经网络的室内导航方法,其特征在于:所述基于视觉神经网络模型输出层的节点数与所标定的位置个数相同;输出层的节点与所述位置一一对应。
4.根据权利要求3所述的基于视觉神经网络的室内导航方法,其特征在于:所述步骤S2的具体步骤包括:
S2.1.获取用于导航的导航图像;
S2.2.通过所述基于视觉神经网络模型对所述导航图像进行分析,得到输出层每个节点所输出的置信度;
S2.3.以满足置信度大于预设的阈值,并且输出该置信度的节点所对应的位置与上一有效识别的位置相同或相邻条件,并以其中置信度最大的节点对应的位置作为所述导航图像的识别位置,本次识别为有效识别,否则本次识别为无效识别;有效识别时跳转至步骤S3。
5.根据权利要求4所述的基于视觉神经网络的室内导航方法,其特征在于:所述步骤S3的具体步骤包括:
S3.1.将所述导航图像进行网格划分分块,得到至少2个的子图像;
S3.2.通过所述基于视觉神经网络模型依次对所述子图像进行分析,以输出层各节点输出置信度的最大值作为该子图像的置信度;
S3.3.以所述置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。
6.一种基于视觉神经网络的室内导航系统,其特征在于:包括基于视觉神经网络模型和导航方向指引模块;
所述基于视觉神经网络模型通过预先获取的训练样本进行训练,所述训练样本是在被导航室内所拍摄,并且标定了拍摄位置的室内图像,所述位置为预设导航路径上的位置;
所述基于视觉神经网络模型用于对获取的导航图像进行分析,确定所述导航图像的识别位置;
所述基于视觉神经网络模型还用于对由所述导航图像分块得到的子图像进行分析,得到各所述子图像的置信度;
所述导航方向指引模块用于根据各子图像的置信度,确定置信度最高的子图像相对于导航图像中心位置的方向作为导航方向。
7.根据权利要求6所述的基于视觉神经网络的室内导航系统,其特征在于:还包括训练样本生成模块;
所述训练样本生成模块用于获取沿所述预设的导航路径上的不同位置朝导航方向分别拍摄室内图像作为训练样本,并以拍摄所述室内图像的位置作为该训练样本的标签;
或者:
所述训练样本生成模块用于获取沿所述预设导航路径朝导航方向拍摄样本视频,将所述样本视频中的图像帧按照预设划分规则分组,每组图像帧标定一个位置;每个图像帧为一个训练样本,该图像帧对应的位置为该训练样本的标签。
8.根据权利要求7所述的基于视觉神经网络的室内导航系统,其特征在于:所述基于视觉神经网络模型的输出层的节点数与所标定的位置个数相同;输出层的节点与所述位置一一对应。
9.根据权利要求8所述的基于视觉神经网络的室内导航系统,其特征在于:所述基于视觉神经网络模型具体用于:
接收输入的导航图像并进行分析,输出层的每个节点输出所述导航图像属于该节点对应位置的置信度;
以满足置信度大于预设的阈值,并且输出该置信度的节点所对应的位置与上一有效识别的位置相同或相邻条件,并以其中置信度最大的节点对应的位置作为所述导航图像的识别位置,本次识别为有效识别,否则本次识别为无效识别。
10.根据权利要求9所述的基于视觉神经网络的室内导航系统,其特征在于:所述基于视觉神经网络模型还具体用于:将所述导航图像进行网格划分,得到至少2个的子图像;并依次对所述子图像进行分析,以输出层各节点输出置信度的最大值作为该子图像的置信度。
11.一种可读存储器,存储有可被计算机执行的程序,其特征在于:所述程序被执行时可实现如权利要求1至5任一项所述的基于视觉神经网络的室内导航方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811342207.1A CN109540138B (zh) | 2018-11-12 | 2018-11-12 | 基于视觉神经网络的室内导航方法、系统及可读存储器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811342207.1A CN109540138B (zh) | 2018-11-12 | 2018-11-12 | 基于视觉神经网络的室内导航方法、系统及可读存储器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109540138A true CN109540138A (zh) | 2019-03-29 |
CN109540138B CN109540138B (zh) | 2021-05-25 |
Family
ID=65847050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811342207.1A Active CN109540138B (zh) | 2018-11-12 | 2018-11-12 | 基于视觉神经网络的室内导航方法、系统及可读存储器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109540138B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111899298A (zh) * | 2020-05-08 | 2020-11-06 | 中国矿业大学(北京) | 基于实景图像机器学习的位置感知系统 |
CN112698269A (zh) * | 2019-10-22 | 2021-04-23 | 精联电子股份有限公司 | 智能型定位系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108510472A (zh) * | 2018-03-08 | 2018-09-07 | 北京百度网讯科技有限公司 | 用于处理图像的方法和装置 |
CN108596009A (zh) * | 2017-12-29 | 2018-09-28 | 西安智加科技有限公司 | 一种用于农机自动驾驶的障碍物检测方法和系统 |
CN108629772A (zh) * | 2018-05-08 | 2018-10-09 | 上海商汤智能科技有限公司 | 图像处理方法及装置、计算机设备和计算机存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678338B (zh) * | 2016-01-13 | 2020-04-14 | 华南农业大学 | 基于局部特征学习的目标跟踪方法 |
CN108398127A (zh) * | 2017-02-06 | 2018-08-14 | 陈鄂平 | 一种室内定位方法及装置 |
CN107131883B (zh) * | 2017-04-26 | 2021-02-12 | 中山大学 | 基于视觉的全自动移动终端室内定位系统 |
US20200193225A1 (en) * | 2017-04-28 | 2020-06-18 | Toyota Motor Europe | System and method for detecting objects in a digital image, and system and method for rescoring object detections |
CN107563381B (zh) * | 2017-09-12 | 2020-10-23 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
CN107942363A (zh) * | 2017-10-31 | 2018-04-20 | 天津大学 | 基于建筑结构图计算的消防员用室内导航系统及其方法 |
CN108230240B (zh) * | 2017-12-31 | 2020-07-31 | 厦门大学 | 一种基于深度学习获取图像城市范围内位置及姿态的方法 |
CN108270999A (zh) * | 2018-01-26 | 2018-07-10 | 中南大学 | 一种目标检测方法、图像识别服务器及系统 |
CN108534781A (zh) * | 2018-03-30 | 2018-09-14 | 中山大学 | 基于视频的室内定位方法 |
CN108548539B (zh) * | 2018-06-28 | 2021-03-23 | Oppo广东移动通信有限公司 | 基于图像识别的导航方法和装置、终端、可读存储介质 |
-
2018
- 2018-11-12 CN CN201811342207.1A patent/CN109540138B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596009A (zh) * | 2017-12-29 | 2018-09-28 | 西安智加科技有限公司 | 一种用于农机自动驾驶的障碍物检测方法和系统 |
CN108510472A (zh) * | 2018-03-08 | 2018-09-07 | 北京百度网讯科技有限公司 | 用于处理图像的方法和装置 |
CN108629772A (zh) * | 2018-05-08 | 2018-10-09 | 上海商汤智能科技有限公司 | 图像处理方法及装置、计算机设备和计算机存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112698269A (zh) * | 2019-10-22 | 2021-04-23 | 精联电子股份有限公司 | 智能型定位系统 |
CN111899298A (zh) * | 2020-05-08 | 2020-11-06 | 中国矿业大学(北京) | 基于实景图像机器学习的位置感知系统 |
CN111899298B (zh) * | 2020-05-08 | 2023-08-15 | 中国矿业大学(北京) | 基于实景图像机器学习的位置感知系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109540138B (zh) | 2021-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108009473A (zh) | 基于目标行为属性视频结构化处理方法、系统及存储装置 | |
CN108062349A (zh) | 基于视频结构化数据及深度学习的视频监控方法和系统 | |
CN108053427A (zh) | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 | |
CN106707296A (zh) | 一种基于双孔径光电成像系统的无人机检测与识别方法 | |
US20190188866A1 (en) | System and method for detecting interaction | |
WO2022041830A1 (zh) | 行人重识别方法和装置 | |
CN108052859A (zh) | 一种基于聚类光流特征的异常行为检测方法、系统及装置 | |
CN109271942A (zh) | 一种人流统计方法以及系统 | |
CN110287907B (zh) | 一种对象检测方法和装置 | |
CN110378247A (zh) | 虚拟对象识别方法和装置、存储介质及电子装置 | |
CN109635661B (zh) | 一种基于卷积神经网络的远场无线充电接收目标检测方法 | |
CN110287855A (zh) | 一种行人轨迹获取方法以及系统 | |
JP2007264860A (ja) | 顔領域抽出装置 | |
CN109948450A (zh) | 一种基于图像的用户行为检测方法、装置和存储介质 | |
CN109508583A (zh) | 一种人群分布特征的获取方法和装置 | |
CN113807276A (zh) | 基于优化的YOLOv4模型的吸烟行为识别方法 | |
WO2024051067A1 (zh) | 红外图像处理方法、装置及设备、存储介质 | |
CN112257527B (zh) | 基于多目标融合与时空视频序列的手机检测方法 | |
CN109540138A (zh) | 基于视觉神经网络的室内导航方法、系统及可读存储器 | |
CN111461222B (zh) | 目标物轨迹相似度的获取方法、装置及电子设备 | |
CN114241379A (zh) | 一种乘客异常行为识别方法、装置、设备及乘客监控系统 | |
CN112802027A (zh) | 一种目标对象的分析方法、存储介质及电子装置 | |
CN107818287B (zh) | 一种客流统计装置及系统 | |
CN113837112A (zh) | 一种视频数据处理方法及电子设备 | |
CN116071813A (zh) | 一种场景检测方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |