CN109788433B - 一种基于深度卷积自编码网络的室内定位轨迹聚类方法 - Google Patents
一种基于深度卷积自编码网络的室内定位轨迹聚类方法 Download PDFInfo
- Publication number
- CN109788433B CN109788433B CN201910191108.6A CN201910191108A CN109788433B CN 109788433 B CN109788433 B CN 109788433B CN 201910191108 A CN201910191108 A CN 201910191108A CN 109788433 B CN109788433 B CN 109788433B
- Authority
- CN
- China
- Prior art keywords
- data
- coding network
- training
- positioning
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本发明提出了一种基于深度卷积自编码网络的室内定位轨迹聚类方法,包括建立室内坐标系,获取室内的多个定位点在室内定位坐标系中的定位点的信息,并建立定位轨迹;根据定位轨迹,建立训练数据;构建深度卷积自编码网络,利用深度卷积自编码网络,进行训练,通过比较输入和输出数据的差别计算损失值,直至损失值到达一定阈值,训练停止;在训练完成后进行数据降维,获取轨迹图降维以后的数据;将三维数据对应到空间坐标轴的坐标上,形成在空间中分布的坐标点;对所有坐标点进行聚类计算。本发明可以防止主观选择对于分类的影响,有很好的容错性,降低了训练数据获取的难度可以直接实现数据在二维或三维空间中的数据可视化,提供直观的了解。
Description
技术领域
本发明涉及定位技术和大数据分析技术领域,特别涉及一种基于深度卷积自编码网络的室内定位轨迹聚类方法。
背景技术
随着诸如超宽带、WIFI、iBeacon、RFID等室内定位技术发展和完善,室内定位技术得以进一步普及,大大方便了室内人流物流信息的获取。然而,这些定位轨迹数据的分析技术还没有得到深入的研究,大部分的成果都局限于数据可视化及统计,缺少对于数据信息的深度挖掘。此外由于设备稳定性、环境复杂性的问题,导致获取的数据格式不统一且有很多噪声,需要大量的数据过滤和预处理工作,大大增加了难度,同时也可能导致有用信息的丢失。
发明内容
本发明的目的旨在至少解决所述技术缺陷之一。
为此,本发明的目的在于提出一种基于深度卷积自编码网络的室内定位轨迹聚类方法。
为了实现上述目的,本发明的实施例提供的一种基于深度卷积自编码网络的室内定位轨迹聚类方法,包括如下步骤:
步骤S1,建立室内坐标系,获取室内的多个定位点在室内定位坐标系中的定位点的信息,并建立定位轨迹;
步骤S2,根据所述定位轨迹,建立训练数据;
步骤S3,构建深度卷积自编码网络,利用所述深度卷积自编码网络,进行训练,通过比较输入和输出数据的差别计算损失值,直至损失值到达一定阈值,训练停止;
步骤S4,在训练完成后,将每个轨迹图片输入神经网络,进行数据降维,获取轨迹图降维以后的数据;
步骤S5,将三维数据对应到空间坐标轴的坐标上,形成在空间中分布的坐标点;
步骤S6,根据对于空间点的观察,对所有坐标点进行聚类计算。
进一步,在所述步骤S1中,每个定位点的信息为Pi=(xi,yi,ti),其中xi,yi,ti,表示第i点在所述室内坐标系中的x,y坐标及时间戳。
进一步,所述定位轨迹为各个定位点的有序序列。
进一步,在所述步骤S2中,将所述定位轨迹中的相邻定位点进行连线以形成多段线,然后经过等比例缩放后绘制在图片上,对有多段线经过的点的像素赋值为第一预设值,对没有多段线经过的点的像素赋值为第二预设值,由此建立训练数据。
进一步,在所述步骤S3中,构建得到的深度卷积自编码网络,其中,第1~8层是编码层,9~11层是全链接的神经网络层,12~19层是解码层。
进一步,在所述步骤S6中,采用K-means算法对所有点进行聚类计算。
根据本发明实施例的基于深度卷积自编码网络的室内定位轨迹聚类方法,将深度卷积自编码网络用于室内定位轨迹的聚类分析,具有以下优点:1)不需要自己提取特征值,可以防止主观选择对于分类的影响;2)不需要对原始数据进行过滤或重建,少量的异常及误差数据并不会对聚类造成很大的影响,有很好的容错性;3)数据不需要添加人工标签,算法会自动将数据进行聚类分析,降低了训练数据获取的难度;4)降维后的数据可以直接实现数据在二维或三维空间中的数据可视化,提供直观的了解。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于深度卷积自编码网络的室内定位轨迹聚类方法的流程图;
图2为根据本发明实施例的转换成图片后的轨迹示意图;
图3为根据本发明实施例的训练5000次后输入(第一行)和输出(第二行)对比示意图;
图4为根据本发明实施例的聚类分析结果的示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
人工神经网络是进行模式识别和分类的重要工具,其中自编码网络(Autoencoder)常被用于非监督聚类分析,它可以将高维度的数据压缩成低维度的包含主要特征的数据,相比于主成分分析算法(Principal Component Analysis)更适合用于非线性问题。卷积神经网络(Convolutional Neural Network)通过在传统神经网络中加入卷积层和池化层有效地减少了神经网络内部链接的数量,从而使得神经网络可以处理更高维度的数据。深度卷积自编码网络(Convolutional Autoencoder)同时具备上述两者的优点,可实现大数据量数据的非监督聚类分析功能。
本发明提出的基于深度卷积自编码网络的室内定位轨迹聚类方法,将上述深度卷积自编码网络应用于室内定位轨迹的聚类分析中。
如图1所示,本发明实施例的基于深度卷积自编码网络的室内定位轨迹聚类方法,包括如下步骤:
步骤S1,建立室内坐标系,获取室内的多个定位点在室内定位坐标系中的定位点的信息,并建立定位轨迹。
在本步骤中,每个定位点的信息为Pi=(xi,yi,ti),其中xi,yi,ti,表示第i点在所述室内坐标系中的x,y坐标及时间戳。
在本发明的实施例中,定位轨迹为各个定位点的有序序列,记作T,T=(P1,P2,…Pn).
步骤S2,根据所述定位轨迹,建立训练数据。
具体的,将所述定位轨迹中的相邻定位点进行连线以形成多段线,然后经过等比例缩放后绘制在图片上,对有多段线经过的点的像素赋值为第一预设值,对没有多段线经过的点的像素赋值为第二预设值,由此建立训练数据。
在本发明的实施例中,第一预设值可以为255,第二预设值可以为0。具体来说,将定位轨迹中的定位点前后两两连线,形成多段线,经过等比例缩放后绘制在边长为64X64像素的图片上,图片每个像素为0~255的灰度值,有多段线经过的点赋值255,反之点赋值0。将所有的轨迹都转化成图片形式(如图2所示),建立训练数据。
步骤S3,构建深度卷积自编码网络,利用所述深度卷积自编码网络,进行训练,通过比较输入和输出数据的差别计算损失值,直至损失值到达一定阈值,训练停止。
在本步骤中,构建得到的深度卷积自编码网络,共有21层神经元构成,第1~8层是编码层,其中进行了4次卷积及池化操作,将64*64*1=4096维度的数据降维成128维数据。9~11层是全链接的神经网络层,其中第9层为128个神经元,第10层3个,第11层128个。12~19层是解码层。将1~8层中进行了4次反卷积及升采样操作,将128维数据恢复成4096维度的数据(表1为神经网络架构)。
编号 | 神经元层名称 | 维度 | 参数数量 |
0 | inputs(InputLayer) | (64,64,1) | 0 |
1 | cov_1(Conv2D) | (64,64,16) | 160 |
2 | pool_1(MaxPooling2D) | (32,32,16) | 0 |
3 | cov_2(Conv2D) | (32,32,8) | 1160 |
4 | pool_2(MaxPooling2D) | (16,16,8) | 0 |
5 | cov_3(Conv2D) | (16,16,8) | 584 |
6 | pool_3(MaxPooling2D) | (8,8,8) | 0 |
7 | cov_4(Conv2D) | (8,8,8) | 584 |
8 | pool_4(MaxPooling2D) | (4,4,8) | 0 |
9 | full_1(Dense) | (128) | 16512 |
10 | middle(Dense) | (3) | 387 |
11 | d_full_1(Dense) | (128) | 512 |
12 | d_cov_1(Conv2D) | (4,4,8) | 584 |
13 | up_1(UpSampling2D) | (8,8,8) | 0 |
14 | d_cov_2(Conv2D) | (8,8,8) | 584 |
15 | up_2(UpSampling2D) | (16,16,8) | 0 |
16 | d_cov_3(Conv2D) | (16,16,8) | 584 |
17 | up_3(UpSampling2D) | (32,32,8) | 0 |
18 | d_cov_4(Conv2D) | (32,32,16) | 1168 |
19 | up_4(UpSampling2D) | (64,64,16) | 0 |
20 | d_cov_5(Conv2D) | (64,64,1) | 145 |
表1
在构建深度卷积自编码网络完成后,对深度卷积自编码网络进行训练。通过比较输入和输出数据的差别计算损失值,根据损失值采用反向传播算法(Back-Propagation)从输出层向输入层逐层修正网络连接中的每个权重。重复迭代此操作,直至损失值到达一定阈值,训练停止(图3)。图3为根据本发明实施例的训练5000次后输入(第一行)和输出(第二行)对比示意图。
步骤S4,在训练完成后,将每个轨迹图片输入神经网络,进行数据降维,获取轨迹图降维以后的数据。
优选的,将每个轨迹图片输入神经网络,取得第10层对应的3维数据,也就是轨迹图降维以后的数据。
步骤S5,将三维数据对应到空间坐标轴的x、y、z坐标上,形成在空间中分布的坐标点。
步骤S6,根据对于空间点的观察,对所有坐标点进行聚类计算。
优选的,在本步骤中,根据对于空间点的观察,选择适当的k值,采用K-means算法对所有点进行聚类计算,如图4所示。
根据本发明实施例的基于深度卷积自编码网络的室内定位轨迹聚类方法,将深度卷积自编码网络用于室内定位轨迹的聚类分析,具有以下优点:1)不需要自己提取特征值,可以防止主观选择对于分类的影响;2)不需要对原始数据进行过滤或重建,少量的异常及误差数据并不会对聚类造成很大的影响,有很好的容错性;3)数据不需要添加人工标签,算法会自动将数据进行聚类分析,降低了训练数据获取的难度;4)降维后的数据可以直接实现数据在二维或三维空间中的数据可视化,提供直观的了解。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。
Claims (4)
1.一种基于深度卷积自编码网络的室内定位轨迹聚类方法,其特征在于,包括如下步骤:
步骤S1,建立室内坐标系,获取室内的多个定位点在室内定位坐标系中的定位点的信息,并建立定位轨迹;其中,每个定位点的信息为Pi=(xi,yi,ti),其中xi,yi,ti,表示第i点在所述室内坐标系中的x,y坐标及时间戳;
步骤S2,根据所述定位轨迹,建立训练数据;其中,将所述定位轨迹中的相邻定位点进行连线以形成多段线,然后经过等比例缩放后绘制在图片上,对有多段线经过的点的像素赋值为第一预设值,对没有多段线经过的点的像素赋值为第二预设值,由此建立训练数据;
步骤S3,构建深度卷积自编码网络,利用所述深度卷积自编码网络,进行训练,通过比较输入和输出数据的差别计算损失值,直至损失值到达一定阈值,训练停止;
步骤S4,在训练完成后,将每个轨迹图片输入神经网络,进行数据降维,获取轨迹图降维以后的数据;
步骤S5,将三维数据对应到空间坐标轴的坐标上,形成在空间中分布的坐标点;
步骤S6,根据对于空间点的观察,对所有坐标点进行聚类计算。
2.如权利要求1所述的基于深度卷积自编码网络的室内定位轨迹聚类方法,其特征在于,所述定位轨迹为各个定位点的有序序列。
3.如权利要求1所述的基于深度卷积自编码网络的室内定位轨迹聚类方法,其特征在于,在所述步骤S3中,构建得到的深度卷积自编码网络,其中,第1~8层是编码层,9~11层是全链接的神经网络层,12~19层是解码层。
4.如权利要求1所述的基于深度卷积自编码网络的室内定位轨迹聚类方法,其特征在于,在所述步骤S6中,采用K-means算法对所有点进行聚类计算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910191108.6A CN109788433B (zh) | 2019-03-13 | 2019-03-13 | 一种基于深度卷积自编码网络的室内定位轨迹聚类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910191108.6A CN109788433B (zh) | 2019-03-13 | 2019-03-13 | 一种基于深度卷积自编码网络的室内定位轨迹聚类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109788433A CN109788433A (zh) | 2019-05-21 |
CN109788433B true CN109788433B (zh) | 2020-09-25 |
Family
ID=66489207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910191108.6A Active CN109788433B (zh) | 2019-03-13 | 2019-03-13 | 一种基于深度卷积自编码网络的室内定位轨迹聚类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109788433B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322529B (zh) * | 2019-07-12 | 2023-04-18 | 电子科技大学 | 一种基于深度学习辅助艺术绘画的方法 |
CN110837806B (zh) * | 2019-11-11 | 2020-07-28 | 辽宁科技学院 | 一种基于深度卷积记忆网络的室内定位方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105120433A (zh) * | 2015-08-19 | 2015-12-02 | 上海交通大学 | 基于连续采样及模糊聚类处理的wlan室内定位方法 |
CN106127807A (zh) * | 2016-06-21 | 2016-11-16 | 中国石油大学(华东) | 一种实时的视频多类多目标跟踪方法 |
CN106154221A (zh) * | 2016-04-05 | 2016-11-23 | 苏州市职业大学 | 一种基于wlan的半监督定位方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201222625D0 (en) * | 2012-12-14 | 2013-01-30 | Omarco Network Solutions Ltd | Improvements relating to tracking moving objects |
CN106568445B (zh) * | 2016-11-11 | 2019-07-05 | 吉林大学 | 基于双向循环神经网络的室内轨迹预测方法 |
CN108616812A (zh) * | 2017-01-20 | 2018-10-02 | 武汉金石猫眼科技有限公司 | 基于深度学习的移动设备定位及追踪系统及其使用方法 |
CN107589435A (zh) * | 2017-09-05 | 2018-01-16 | 成都新橙北斗智联有限公司 | 一种北斗gps轨迹停留分析方法 |
CN107766808B (zh) * | 2017-09-30 | 2021-06-29 | 北京泓达九通科技发展有限公司 | 道路网络空间中车辆对象移动轨迹聚类的方法及系统 |
CN109059944B (zh) * | 2018-06-06 | 2021-08-06 | 上海国际汽车城(集团)有限公司 | 基于驾驶习惯学习的运动规划方法 |
-
2019
- 2019-03-13 CN CN201910191108.6A patent/CN109788433B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105120433A (zh) * | 2015-08-19 | 2015-12-02 | 上海交通大学 | 基于连续采样及模糊聚类处理的wlan室内定位方法 |
CN106154221A (zh) * | 2016-04-05 | 2016-11-23 | 苏州市职业大学 | 一种基于wlan的半监督定位方法 |
CN106127807A (zh) * | 2016-06-21 | 2016-11-16 | 中国石油大学(华东) | 一种实时的视频多类多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109788433A (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110008915B (zh) | 基于掩码-rcnn进行稠密人体姿态估计的系统及方法 | |
CN112132023A (zh) | 基于多尺度上下文增强网络的人群计数方法 | |
CN109788433B (zh) | 一种基于深度卷积自编码网络的室内定位轨迹聚类方法 | |
CN108038420A (zh) | 一种基于深度视频的人体行为识别方法 | |
CN110852941A (zh) | 一种基于神经网络的二维虚拟试衣方法 | |
CN110515931B (zh) | 一种基于随机森林算法的电容型设备缺陷预测方法 | |
CN106651829B (zh) | 一种基于能量和纹理分析的无参考图像客观质量评价方法 | |
CN114239116B (zh) | 一种基于风格迁移的bim设计推荐方法 | |
CN110059769A (zh) | 用于街景理解的基于像素重排重建的语义分割方法及系统 | |
CN103065282A (zh) | 一种基于稀疏线性系统的图像融合方法 | |
CN104616026A (zh) | 一种面向智能视频监控的监控场景类型辨识方法 | |
Pokrajac et al. | Spatiotemporal blocks-based moving objects identification and tracking | |
CN114463837A (zh) | 基于自适应时空卷积网络的人体行为识别方法及系统 | |
CN111639668A (zh) | 一种基于深度学习的人群密度检测方法 | |
CN112508121A (zh) | 一种工业机器人感知外界的方法和系统 | |
CN110648332A (zh) | 基于多分支卷积神经网络特征正交的图像可判别区域提取方法 | |
CN107358204B (zh) | 基于再编码和深度融合卷积网络的多光谱图像分类方法 | |
CN113205503B (zh) | 一种卫星海岸带影像质量评价方法 | |
CN113688715A (zh) | 面部表情识别方法及系统 | |
CN109146846B (zh) | 无参考型图像质量评价系统及方法 | |
CN103559683A (zh) | 基于多视图流行低秩表示的受损图像修复方法 | |
CN112488117A (zh) | 一种基于方向诱导卷积的点云分析方法 | |
CN110991540B (zh) | 一种面向机箱装配质量快速检测的轻量化图像分类方法 | |
WO2020187394A1 (de) | Verfahren zum trainieren eines autoencoders und zum klassifizieren von daten sowie autoencoder und computerprogramm hierzu | |
CN112070048B (zh) | 基于RDSNet的车辆属性识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |