CN110081897A - 一种限制性骑行路径规划装置及方法 - Google Patents

一种限制性骑行路径规划装置及方法 Download PDF

Info

Publication number
CN110081897A
CN110081897A CN201910371140.2A CN201910371140A CN110081897A CN 110081897 A CN110081897 A CN 110081897A CN 201910371140 A CN201910371140 A CN 201910371140A CN 110081897 A CN110081897 A CN 110081897A
Authority
CN
China
Prior art keywords
path
start position
point
riding
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910371140.2A
Other languages
English (en)
Other versions
CN110081897B (zh
Inventor
王子赟
阮悦颖
张洁
陈悦林
叶小玮
陆妍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN201910371140.2A priority Critical patent/CN110081897B/zh
Publication of CN110081897A publication Critical patent/CN110081897A/zh
Application granted granted Critical
Publication of CN110081897B publication Critical patent/CN110081897B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明公开了一种限制性骑行路径规划装置及方法,涉及数据分析领域,包括主机电路和从机电路,主机电路和从机电路通过无线通信连接;主机电路包括主机控制器、定位接收器、记录设备,主机控制器分别与定位接收器和记录设备连接;从机电路包括从机控制器、交互输入设备、交互显示设备,从机控制器分别与交互输入设备和交互显示设备连接;定位接收器用于定位帧数据中的经度数据和纬度数据,并对各个路径点进行标记;记录设备用于记录和存储位置数据;交互输入设备用于输入骑行目的地;交互显示设备用于显示用户的实时位置和骑行路径。根据用户的实际骑行需求选择出最适合用户的路径,适用场景多。

Description

一种限制性骑行路径规划装置及方法
技术领域
本发明涉及数据分析领域,尤其是一种限制性骑行路径规划装置及方法。
背景技术
随着共享单车的兴起,骑行运动方式渐渐推广,骑行市场被逐步开发出来。 作为全球八大无线产业之一,GPS为代表的导航定位服务占领了广大市场,GPS 因为全天、高精、高效等优势及其导航追踪、精准授时等各方面的实用功能, 已经逐步应用到各个领域。
现有的导航设备主要是根据行驶时间和出行方式来推荐路径,当用户确定 出发地和目的地后,系统会根据出行方式生成路径和相应的时间。然而,面向 骑行的导航设备比较少见,主要原因包括:投入成本巨大而盈利有限,单车上 的导航设备使用场景单一,通常只涉及短途通勤场景,根据起点和终点规划最 短路径。
发明内容
本发明针对上述问题及技术需求,提出了一种限制性骑行路径规划装置及 方法。
本发明的技术方案如下:
第一方面,一种限制性骑行路径规划装置,包括:主机电路和从机电路, 所述主机电路和所述从机电路通过无线通信连接;所述主机电路包括主机控制 器、定位接收器、记录设备,所述主机控制器分别与所述定位接收器和所述记 录设备连接;所述从机电路包括从机控制器、交互输入设备、交互显示设备, 所述从机控制器分别与所述交互输入设备和所述交互显示设备连接;
所述定位接收器用于定位帧数据中的经度数据和纬度数据,并对各个路径 点进行标记;
所述记录设备用于记录和存储位置数据;
所述交互输入设备用于输入骑行目的地;
所述交互显示设备用于显示用户的实时位置和骑行路径。
其进一步的技术方案为:所述主机控制器和所述从机控制器采用 STM32F103VET6单片机,所述定位接收器是UBLOX-NEO-6M模组和 STM32F103VET6上自带的AT24C02 EEPROM模块,其中,UBLOX-NEO-6M 模组作为GPS信号分析处理模组,AT24C02存储GPS配置信息;所述记录设 备采用Micro SD卡;所述交互输入设备采用按键模块;所述交互显示设备采用带ILI9341控制器的TFL液晶屏。
其进一步的技术方案为:所述主机电路还包括第一无线通信模块,所述第 一无线通信模块与所述主机控制器连接,所述从机电路还包括第二无线通信模 块,所述第二无线通信模块与所述从机控制器连接;所述第一无线通信模块和 所述第二无线通信模块用于实现所述主机电路和所述从机电路之间的无线通 信。
其进一步的技术方案为:所述第一无线通信模块和所述第二无线通信模块 采用STM32F103VET6单片机上自带的ESP8266 WiFi模块。
第二方面,一种限制性骑行路径规划方法,应用于第一方面所述的限制性 骑行路径规划装置中,所述方法包括:
确定预定区域内的各个路径点,所述路径点为至少两条道路的交汇点;
采集各个路径点的经纬度数据,记录各个路径点的海拔高度,对每个路径 点预设风景评分,将每个路径点的经纬度数据、海拔高度、风景评分对应存储;
接收用户选择的起点和终点,对于每个行驶路段,获取同时间段内GPS数 据中其他骑行者的所有骑行路径,确定出起点与终点之间的所有待选路径集合, 所述待选路径集合包括有向路段集、每条待选路径的最大海拔差集和每条待选 路径的综合风景评分集;
接收用户选择的骑行模式,所述骑行模式包括最短距离模式、风景最优模 式、锻炼身体模式;
根据用户选择的骑行模式,通过约束深度强化学习算法确定出对骑行模式 对应的目标路径。
其进一步的技术方案为:所述骑行模式为最短距离模式,所述通过约束深 度强化学习算法确定出对骑行模式对应的目标路径,包括:
待选路径集合W中包括所有路径点组成的路径点集E和有向路径集A,用 户的起点位置ei为路径点集E中的第i个路径点,将用户的起点位置ei的状态特 征表示为s(ei)=[xi,yi,xD,yD],xi表示起点的经度,yi表示起点的纬度,xD表示终 点的经度,yD表示终点的纬度;起点位置ei到终点的骑行时间用Q(s(ei))表示, 将起点位置ei的状态特征s(ei)输入BP神经网络得到起点到终点的骑行时间 Q(s(ei));
用户在待选路径集合G中所在路径点ei+n∈E,ei+n表示在起点位置ei后的第 n个路径点,与起点位置ei相连接的所有路段ai,j组成起点位置ei的有向路径集 A(ei);奖励函数r(ei,ai,i+1)表示用户在起点位置ei选择路段ai,i+1的骑行时间Q(s(ei)); 根据骑行经验执行贪婪策略π和环境交互得到由所在路径点、选择的相邻路段 和骑行时间组成的求解:hi:k=ei,ai,i+1,r(ei,ai,i+1),ei+1,ai+1,i+2,...,ek,ek表示终点之前所经 过的最后一个路口,即路径点集E中的第k个路径点;
当完成一次求解,Q值发生更新,将求解中用户在起点位置ei以及之后经 过的每个路径点表示为[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P中;当每次完 成成功求解时,计算成功求解中每个起点位置ei到终点位置的累积折减收益 G(hi:k);定义节点记忆N={[s(ei),q(ei)|ei∈E,q(ei)=minG(hi:k)]},二元组s(ei),q(ei)存 储起点位置ei的状态特征和起点到终点的最短骑行时间;
采用深度Q-learning算法,神经网路的训练通过最小化起点位置ei到终点 的最短骑行时间q(ei)和起点位置ei到终点的骑行时间估计值Q(s(ei))误差平方 和,即其中θ为神经网络权重系数;
采用ε贪婪策略,以ε概率选择当前最佳策略,1-ε概率随机选择策略,基 于深度Q-learning算法,结合待选路径集合W,选择对应最短距离模式的路径, 具体步骤包括:
输入W=(E,A);
初始化节点记忆N,循环执行初始化Q值及神经网络权重系数θ,嵌套循 环1至k,在起点位置ei用户满足交通规则时,采用ε贪婪策略选择和起点位置 相连的路段ai,i+1
将选择记录[s(ei),ai,i+1,r(ei,ai,i+1)]加入求解,并将记录[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)] 存储于求解记忆P,直到最后一个路径点ek和终点eD重合结束循环;
计算成功从起点到终点的路径中每个起点位置ei到终点的累积折减收益 G(hi:k),并更新节点记忆N;
使用梯度下降更新θ,以最小化[(q(ei)-Q(s(ei),θ))]2,输出贪婪策略 ai,i+1=π(ei),得到所选择的一个路段,到达终点后,所有选择的路段组成的路径 即与最短距离模式对应的路径。
其进一步的技术方案为:所述骑行模式为风景最优模式,所述通过约束深 度强化学习算法确定出对骑行模式对应的目标路径,包括:
根据骑行经验设定风景评分初始值g0,待选路径集合W中包括所有路径点 组成的路径点集E、有向路径集A、每条待选路径的综合风景评分集g,用户 的起点位置ei为路径点集E中的第i个路径点,将用户的起点位置ei的状态特征 表示为s(ei)=[xi,yi,xD,yD],xi表示起点的经度,yi表示起点的纬度,xD表示终点 的经度,yD表示终点的纬度;起点位置ei到终点的骑行时间用Q(s(ei))表示,将 起点位置ei的状态特征s(ei)输入BP神经网络得到起点到终点的骑行时间 Q(s(ei));
用户在待选路径集合G中所在路径点ei+n∈E,ei+n表示在起点位置ei后的第 n个路径点,与起点位置ei相连接的所有路段ai,j组成起点位置ei的有向路径集 A(ei);奖励函数r(ei,ai,i+1)表示用户在起点位置ei选择路段ai,i+1的骑行时间Q(s(ei)); 根据骑行经验执行贪婪策略π和环境交互得到由所在路径点、选择的相邻路段 和骑行时间组成的求解:hi:k=ei,ai,i+1,r(ei,ai,i+1),ei+1,ai+1,i+2,...,ek,ek表示终点之前所经 过的最后一个路口,即路径点集E中的第k个路径点;
当完成一次求解,Q值发生更新,将求解中用户在起点位置ei以及之后经 过的每个路径点表示为[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P中;当每次完 成成功求解时,计算成功求解中每个起点位置ei到终点位置的累积折减收益 G(hi:k);定义节点记忆N={[s(ei),q(ei)|ei∈E,q(ei)=minG(hi:k)]},二元组s(ei),q(ei)存 储起点位置ei的状态特征和起点到终点的最短骑行时间;
采用深度Q-learning算法,神经网路的训练通过最小化起点位置ei到终点 的最短骑行时间q(ei)和起点位置ei到终点的骑行时间估计值Q(s(ei))误差平方 和,即其中θ为神经网络权重系数;
采用ε贪婪策略,以ε概率选择当前最佳策略,1-ε概率随机选择策略,基 于深度Q-learning算法,结合待选路径集合W,选择对应风景最优模式的路径, 具体步骤包括:
输入W=(E,A,g);
初始化节点记忆N,循环执行初始化Q值及神经网络权重系数θ,嵌套循 环1至k,在起点位置ei用户满足交通规则时,采用ε贪婪策略选择和起点位置 相连的路段ai,i+1
将选择记录[s(ei),ai,i+1,r(ei,ai,i+1)]加入求解,并将记录[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)] 存储于求解记忆P,直到最后一个路径点ek和终点eD重合结束循环;
计算成功从起点到终点的路径中每个起点位置ei到终点的累积折减收益 G(hi:k),并更新节点记忆N;
使用梯度下降更新θ,以最小化输出贪婪策略ai,i+1=π(ei),得 到所选择的一个路段,到达终点后,所有选择的路段组成的路径即与风景最优 模式对应的路径。
其进一步的技术方案为:所述骑行模式为锻炼身体模式,所述通过约束深 度强化学习算法确定出对骑行模式对应的目标路径,包括:
设每条待选路径的最低点el海拔为Zl,最高点eh海拔为Zh,海拔差最大值 为z,待选路径集合W中包括所有路径点组成的路径点集E、有向路径集A、 每条待选路径的最大海拔差集Z,用户的起点位置ei为路径点集E中的第i个路 径点,将用户的起点位置ei的状态特征表示为s(ei)=[xi,yi,xD,yD],xi表示起点的 经度,yi表示起点的纬度,xD表示终点的经度,yD表示终点的纬度;起点位置 ei到终点的骑行时间用Q(s(ei))表示,将起点位置ei的状态特征s(ei)输入BP神经 网络得到起点到终点的骑行时间Q(s(ei));
用户在待选路径集合G中所在路径点ei+n∈E,ei+n表示在起点位置ei后的第 n个路径点,与起点位置ei相连接的所有路段ai,j组成起点位置ei的有向路径集 A(ei);奖励函数r(ei,ai,i+1)表示用户在起点位置ei选择路段ai,i+1的骑行时间Q(s(ei)); 根据骑行经验执行贪婪策略π和环境交互得到由所在路径点、选择的相邻路段 和骑行时间组成的求解:hi:k=ei,ai,i+1,r(ei,ai,i+1),ei+1,ai+1,i+2,...,ek,ek表示终点之前所经 过的最后一个路口,即路径点集E中的第k个路径点;
当完成一次求解,Q值发生更新,将求解中用户在起点位置ei以及之后经 过的每个路径点表示为[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P中;当每次完 成成功求解时,计算成功求解中每个起点位置ei到终点位置的累积折减收益 G(hi:k);定义节点记忆N={[s(ei),q(ei)|ei∈E,q(ei)=minG(hi:k)]},二元组s(ei),q(ei)存 储起点位置ei的状态特征和起点到终点的最短骑行时间;
采用深度Q-learning算法,神经网路的训练通过最小化起点位置ei到终点 的最短骑行时间q(ei)和起点位置ei到终点的骑行时间估计值Q(s(ei))误差平方 和,即其中θ为神经网络权重系数;
采用ε贪婪策略,以ε概率选择当前最佳策略,1-ε概率随机选择策略,基 于深度Q-learning算法,结合待选路径集合W,选择对应锻炼身体模式的路径, 具体步骤包括:
输入W=(E,A,Z);
初始化节点记忆N,循环执行初始化Q值及神经网络权重系数θ,嵌套循 环1至k,在起点位置ei用户满足交通规则时,采用ε贪婪策略选择和起点位置 相连的路段ai,i+1
将选择记录[s(ei),ai,i+1,r(ei,ai,i+1)]加入求解,并将记录[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)] 存储于求解记忆P,直到最后一个路径点ek和终点eD重合结束循环;
计算成功从起点到终点的路径中每个起点位置ei到终点的累积折减收益G(hi:k),并更新节点记忆N;
使用梯度下降更新θ,以最小化输出贪婪策略ai,i+1=π(ei), 得到所选择的一个路段,到达终点后,所有选择的路段组成的路径即与锻炼身 体模式对应的路径。
本发明的有益技术效果是:
通过GPS定位骑行的实时情况,针对观景、锻炼等不同用户的需求,根据 骑行经验,给出合理的骑行路径,能为骑行者爱好者提供科学的运动指导,根 据用户需求以及骑行经验帮助用户选择骑行方案,统筹兼顾,优化路程,增添 了骑行运动的乐趣,提高骑行体验,有利于推广绿色出行。
通过约束深度强化学习(CDRL)算法计算与骑行模式对应的最优路径, 该算法主要由路径约束和深度Q-learning算法两个阶段组成。在第一阶段,生 成起点和终点之间可选择的约束路径,通过隐含的骑行者的经验对可选择的路 段进行限制,在第二阶段,设计深度Q-learning算法学习骑行者经验,根据出 发时间在线计算给定最优路径。该方案在线计算用时短,计算效率高。
附图说明
图1是本发明一个实施例提供的限制性骑行路径规划装置的结构示意图。
图2是本发明一个实施例提供的限制性骑行路径规划方法的流程图。
图3是本发明一个实施例提供的路径点采集数据图。
图4是本发明一个实施例提供的路径规划状态转移图。
具体实施方式
下面结合附图对本发明的具体实施方式做进一步说明。
图1是本发明一个实施例提供的限制性骑行路径规划装置的结构示意图, 如图1所示,该装置可以包括主机电路和从机电路,主机电路和从机电路通过 无线通信连接;主机电路包括主机控制器、定位接收器、记录设备,主机控制 器分别与定位接收器和记录设备连接;从机电路包括从机控制器、交互输入设 备、交互显示设备,从机控制器分别与交互输入设备和交互显示设备连接;定 位接收器用于定位帧数据中的经度数据和纬度数据,并对各个路径点进行标记; 记录设备用于记录和存储位置数据;交互输入设备用于输入骑行目的地;交互 显示设备用于显示用户的实时位置和骑行路径。
示例性的,主机控制器和从机控制器采用STM32F103VET6单片机,定位 接收器是UBLOX-NEO-6M模组和STM32F103VET6上自带的AT24C02 EEPROM模块,其中,UBLOX-NEO-6M模组作为GPS信号分析处理模组, AT24C02存储GPS配置信息,保证GPS掉电配置不丢失,UBLOX-NEO-6M GPS 模组上带有USB接口,支持直接连接到上位机,借用上位机软件对模组直接进 行配置与数据信息读取,定位接收器与STM32F103VET6的12C/USART接口 连接;记录设备采用Micro SD卡,Micro SD卡上的位置信息在更改格式为KML 之后,可以使用Google Earth对运动轨迹进行地图绘制,便于用户对骑行运动 查看,记录设备与STM32F103VET6的SPI1接口连接;交互输入设备采用按键 模块,交互输入设备与STM32F103VET6的GPIO接口连接;交互显示设备采 用带ILI9341控制器的TFL液晶屏。
尽管图中未示出,主机电路还包括第一无线通信模块,第一无线通信模块 与主机控制器连接,从机电路还包括第二无线通信模块,第二无线通信模块与 所述从机控制器连接;第一无线通信模块和第二无线通信模块用于实现主机电 路和从机电路之间的无线通信。
示例性的,第一无线通信模块和第二无线通信模块采用STM32F103VET6 单片机上自带的ESP8266 WiFi模块。
本发明实施例还提供一种限制性骑行路径规划方法,应用于如图1所示的 限制性骑行路径规划装置中,如图2所示,该方法可以包括以下步骤:
步骤1,确定预定区域内的各个路径点。
路径点为至少两条道路的交汇点。
步骤2,采集各个路径点的经纬度数据,记录各个路径点的海拔高度,对 每个路径点预设风景评分,将每个路径点的经纬度数据、海拔高度、风景评分 对应存储。
风景评分考虑到时间、天气、季节等因素,因此风景评分可以是动态变化 的。
步骤3,接收用户选择的起点和终点,对于每个行驶路段,获取同时间段 内GPS数据中其他骑行者的所有骑行路径,确定出起点与终点之间的所有待选 路径集合。
待选路径集合包括有向路段集、每条待选路径的最大海拔差集和每条待选 路径的综合风景评分集。
首先进行模型假设,假设每条路径的骑行时间是随机变量,假设所测数据 真实可靠,假设不同路径的客观值和用户需求值相互独立。
由于骑行单车GPS数据的稀疏性和低采样率,很多地方之间不能获取足够 的信息来推断出行的路径,但是骑行者的经验同样隐藏在行驶路径中,因此可 以通过学习该行驶路径来学习骑行者骑行经验。
对于最优路径选择的问题,需要生成骑行路径选择集,在实际中,骑行者 往往只选择起点至终点的若干条路径行驶,即可选择的路径存在一定约束,为 了避免生成的路径选择集遗漏重要的路径,并且生成路径集满足约束,因此根 据同时间段内所有骑行者的骑行路径确定待选路径集合。
步骤4,接收用户选择的骑行模式。
骑行模式包括最短距离模式、风景最优模式、锻炼身体模式。
步骤5,根据用户选择的骑行模式,通过约束深度强化学习算法确定出对 骑行模式对应的目标路径。
采用深度Q-learning算法来估算Q值,Q值即骑行者在起点位置选择路段 的最大累积折减收益。在深度Q-learning算法中,使用深度神经网络作为状态 映射到Q值的函数近似器。本实施例使用的BP神经网络中,将出行者起点位 置的状态特征作为输入,输出起点到终点的骑行时间。
在第一种可能的实现中,骑行模式为最短距离模式,通过约束深度强化学 习算法确定出对骑行模式对应的目标路径,包括:待选路径集合W中包括所有 路径点组成的路径点集E和有向路径集A,用户的起点位置ei为路径点集E中 的第i个路径点,将用户的起点位置ei的状态特征表示为s(ei)=[xi,yi,xD,yD],xi表 示起点的经度,yi表示起点的纬度,xD表示终点的经度,yD表示终点的纬度; 起点位置ei到终点的骑行时间用Q(s(ei))表示,将起点位置ei的状态特征s(ei)输入 BP神经网络得到起点到终点的骑行时间Q(s(ei));用户在待选路径集合G中所 在路径点ei+n∈E,ei+n表示在起点位置ei后的第n个路径点,与起点位置ei相连 接的所有路段ai,j组成起点位置ei的有向路径集A(ei);奖励函数r(ei,ai,i+1)表示用户在起点位置ei选择路段ai,i+1的骑行时间Q(s(ei));根据骑行经验执行贪婪策略π 和环境交互得到由所在路径点、选择的相邻路段和骑行时间组成的求解: hi:k=ei,ai,i+1,r(ei,ai,i+1),ei+1,ai+1,i+2,...,ek,ek表示终点之前所经过的最后一个路口,即路 径点集E中的第k个路径点;当完成一次求解,Q值发生更新,将求解中用户 在起点位置ei以及之后经过的每个路径点表示为[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于 求解记忆P中;当每次完成成功求解时,计算成功求解中每个起点位置ei到终 点位置的累积折减收益G(hi:k);定义节点记忆 N={[s(ei),q(ei)|ei∈E,q(ei)=minG(hi:k)]},二元组s(ei),q(ei)存储起点位置ei的状态 特征和起点到终点的最短骑行时间;采用深度Q-learning算法,神经网路的训 练通过最小化起点位置ei到终点的最短骑行时间q(ei)和起点位置ei到终点的骑 行时间估计值Q(s(ei))误差平方和,即其中θ 为神经网络权重系数;采用ε贪婪策略,以ε概率选择当前最佳策略,1-ε概率 随机选择策略,基于深度Q-learning算法,结合待选路径集合W,选择对应最 短距离模式的路径,具体步骤包括:输入W=(E,A);初始化节点记忆N,循环 执行初始化Q值及神经网络权重系数θ,嵌套循环1至k,在起点位置ei用户满 足交通规则时,采用ε贪婪策略选择和起点位置相连的路段ai,i+1;将选择记录 [s(ei),ai,i+1,r(ei,ai,i+1)]加入求解,并将记录[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆 P,直到最后一个路径点ek和终点eD重合结束循环;计算成功从起点到终点的路 径中每个起点位置ei到终点的累积折减收益G(hi:k),并更新节点记忆N;使用梯 度下降更新θ,以最小化[(q(ei)-Q(s(ei),θ))]2,输出贪婪策略ai,i+1=π(ei),得到所 选择的一个路段,到达终点后,所有选择的路段组成的路径即与最短距离模式 对应的路径。
在第二种可能的实现中,骑行模式为风景最优模式,通过约束深度强化学 习算法确定出对骑行模式对应的目标路径,包括:根据骑行经验设定风景评分 初始值g0,待选路径集合W中包括所有路径点组成的路径点集E、有向路径集 A、每条待选路径的综合风景评分集g,用户的起点位置ei为路径点集E中的第 i个路径点,将用户的起点位置ei的状态特征表示为s(ei)=[xi,yi,xD,yD],xi表示起 点的经度,yi表示起点的纬度,xD表示终点的经度,yD表示终点的纬度;起点 位置ei到终点的骑行时间用Q(s(ei))表示,将起点位置ei的状态特征s(ei)输入BP 神经网络得到起点到终点的骑行时间Q(s(ei));用户在待选路径集合G中所在路 径点ei+n∈E,ei+n表示在起点位置ei后的第n个路径点,与起点位置ei相连接的 所有路段ai,j组成起点位置ei的有向路径集A(ei);奖励函数r(ei,ai,i+1)表示用户在 起点位置ei选择路段ai,i+1的骑行时间Q(s(ei));根据骑行经验执行贪婪策略π和环 境交互得到由所在路径点、选择的相邻路段和骑行时间组成的求解: hi:k=ei,ai,i+1,r(ei,ai,i+1),ei+1,ai+1,i+2,...,ek,ek表示终点之前所经过的最后一个路口,即路 径点集E中的第k个路径点;当完成一次求解,Q值发生更新,将求解中用户 在起点位置ei以及之后经过的每个路径点表示为[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于 求解记忆P中;当每次完成成功求解时,计算成功求解中每个起点位置ei到终 点位置的累积折减收益G(hi:k);定义节点记忆 N={[s(ei),q(ei)|ei∈E,q(ei)=minG(hi:k)]},二元组s(ei),q(ei)存储起点位置ei的状态 特征和起点到终点的最短骑行时间;采用深度Q-learning算法,神经网路的训 练通过最小化起点位置ei到终点的最短骑行时间q(ei)和起点位置ei到终点的骑 行时间估计值Q(s(ei))误差平方和,即其中θ为神 经网络权重系数;采用ε贪婪策略,以ε概率选择当前最佳策略,1-ε概率随机 选择策略,基于深度Q-learning算法,结合待选路径集合W,选择对应风景最 优模式的路径,具体步骤包括:输入W=(E,A,g);初始化节点记忆N,循环执 行初始化Q值及神经网络权重系数θ,嵌套循环1至k,在起点位置ei用户满足 交通规则时,采用ε贪婪策略选择和起点位置相连的路段ai,i+1;将选择记录 [s(ei),ai,i+1,r(ei,ai,i+1)]加入求解,并将记录[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P,直到最后一个路径点ek和终点eD重合结束循环;计算成功从起点到终点的路 径中每个起点位置ei到终点的累积折减收益G(hi:k),并更新节点记忆N;使用梯 度下降更新θ,以最小化输出贪婪策略ai,i+1=π(ei),得到所选择的 一个路段,到达终点后,所有选择的路段组成的路径即与风景最优模式对应的 路径。
示例性的,风景评分满分10分,根据骑行经验设定风景评分初始值为5。
在第三种可能的实现中,骑行模式为锻炼身体模式,通过约束深度强化学 习算法确定出对骑行模式对应的目标路径,包括:设每条待选路径的最低点el海 拔为Zl,最高点eh海拔为Zh,海拔差最大值为z,待选路径集合W中包括所有 路径点组成的路径点集E、有向路径集A、每条待选路径的最大海拔差集Z, 用户的起点位置ei为路径点集E中的第i个路径点,将用户的起点位置ei的状态 特征表示为s(ei)=[xi,yi,xD,yD],xi表示起点的经度,yi表示起点的纬度,xD表示 终点的经度,yD表示终点的纬度;起点位置ei到终点的骑行时间用Q(s(ei))表示, 将起点位置ei的状态特征s(ei)输入BP神经网络得到起点到终点的骑行时间Q(s(ei));用户在待选路径集合G中所在路径点ei+n∈E,ei+n表示在起点位置ei后 的第n个路径点,与起点位置ei相连接的所有路段ai,j组成起点位置ei的有向路 径集A(ei);奖励函数r(ei,ai,i+1)表示用户在起点位置ei选择路段ai,i+1的骑行时间 Q(s(ei));根据骑行经验执行贪婪策略π和环境交互得到由所在路径点、选择的 相邻路段和骑行时间组成的求解:hi:k=ei,ai,i+1,r(ei,ai,i+1),ei+1,ai+1,i+2,...,ek,ek表示终点 之前所经过的最后一个路口,即路径点集E中的第k个路径点;当完成一次求 解,Q值发生更新,将求解中用户在起点位置ei以及之后经过的每个路径点表 示为[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P中;当每次完成成功求解时,计 算成功求解中每个起点位置ei到终点位置的累积折减收益G(hi:k);定义节点记忆 N={[s(ei),q(ei)|ei∈E,q(ei)=minG(hi:k)]},二元组s(ei),q(ei)存储起点位置ei的状态 特征和起点到终点的最短骑行时间;采用深度Q-learning算法,神经网路的训 练通过最小化起点位置ei到终点的最短骑行时间q(ei)和起点位置ei到终点的骑 行时间估计值Q(s(ei))误差平方和,即其中θ为神经网络权重系数;采用ε贪婪策略,以ε概率选择当前最佳策略,1-ε概率随 机选择策略,基于深度Q-learning算法,结合待选路径集合W,选择对应锻炼 身体模式的路径,具体步骤包括:输入W=(E,A,Z);初始化节点记忆N,循环 执行初始化Q值及神经网络权重系数θ,嵌套循环1至k,在起点位置ei用户满 足交通规则时,采用ε贪婪策略选择和起点位置相连的路段ai,i+1;将选择记录 [s(ei),ai,i+1,r(ei,ai,i+1)]加入求解,并将记录[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆 P,直到最后一个路径点ek和终点eD重合结束循环;计算成功从起点到终点的路 径中每个起点位置ei到终点的累积折减收益G(hi:k),并更新节点记忆N;使用梯 度下降更新θ,以最小化输出贪婪策略ai,i+1=π(ei),得到所选 择的一个路段,到达终点后,所有选择的路段组成的路径即与锻炼身体模式对 应的路径。
示例性的,如图3所示,其示出了采集预定区域内的路径点,假设用户确 定起点和终点分别为医学院和三食堂,根据图3中的路径点和骑行经验依次生 成图4所示的状态转换图,用户可以自行选择不同模式的最优路径。当起点选 择为医学院,终点为三食堂时,CDRL算法根据骑行经验,在医学院选择下一 个骑行地点,由此类推,直至到达三食堂,生成多条路径,用户根据自身需求 选择适合的路径。
以上所述的仅是本发明的优先实施方式,本发明不限于以上实施例。可以 理解,本领域技术人员在不脱离本发明的精神和构思的前提下直接导出或联想 到的其他改进和变化,均应认为包含在本发明的保护范围之内。

Claims (8)

1.一种限制性骑行路径规划装置,其特征在于,包括:主机电路和从机电路,所述主机电路和所述从机电路通过无线通信连接;所述主机电路包括主机控制器、定位接收器、记录设备,所述主机控制器分别与所述定位接收器和所述记录设备连接;所述从机电路包括从机控制器、交互输入设备、交互显示设备,所述从机控制器分别与所述交互输入设备和所述交互显示设备连接;
所述定位接收器用于定位帧数据中的经度数据和纬度数据,并对各个路径点进行标记;
所述记录设备用于记录和存储位置数据;
所述交互输入设备用于输入骑行目的地;
所述交互显示设备用于显示用户的实时位置和骑行路径。
2.根据权利要求1所述的限制性骑行路径规划装置,其特征在于,所述主机控制器和所述从机控制器采用STM32F103VET6单片机,所述定位接收器是UBLOX-NEO-6M模组和STM32F103VET6上自带的AT24C02 EEPROM模块,其中,UBLOX-NEO-6M模组作为GPS信号分析处理模组,AT24C02存储GPS配置信息;所述记录设备采用Micro SD卡;所述交互输入设备采用按键模块;所述交互显示设备采用带ILI9341控制器的TFL液晶屏。
3.根据权利要求2所述的限制性骑行路径规划装置,其特征在于,所述主机电路还包括第一无线通信模块,所述第一无线通信模块与所述主机控制器连接,所述从机电路还包括第二无线通信模块,所述第二无线通信模块与所述从机控制器连接;所述第一无线通信模块和所述第二无线通信模块用于实现所述主机电路和所述从机电路之间的无线通信。
4.根据权利要求3所述的限制性骑行路径规划装置,其特征在于,所述第一无线通信模块和所述第二无线通信模块采用STM32F103VET6单片机上自带的ESP8266 WiFi模块。
5.一种限制性骑行路径规划方法,其特征在于,应用于权利要求1至4任一所述的限制性骑行路径规划装置中,所述方法包括:
确定预定区域内的各个路径点,所述路径点为至少两条道路的交汇点;
采集各个路径点的经纬度数据,记录各个路径点的海拔高度,对每个路径点预设风景评分,将每个路径点的经纬度数据、海拔高度、风景评分对应存储;
接收用户选择的起点和终点,对于每个行驶路段,获取同时间段内GPS数据中其他骑行者的所有骑行路径,确定出起点与终点之间的所有待选路径集合,所述待选路径集合包括有向路段集、每条待选路径的最大海拔差集和每条待选路径的综合风景评分集;
接收用户选择的骑行模式,所述骑行模式包括最短距离模式、风景最优模式、锻炼身体模式;
根据用户选择的骑行模式,通过约束深度强化学习算法确定出对骑行模式对应的目标路径。
6.根据权利要求5所述的限制性骑行路径规划方法,其特征在于,所述骑行模式为最短距离模式,所述通过约束深度强化学习算法确定出对骑行模式对应的目标路径,包括:
待选路径集合W中包括所有路径点组成的路径点集E和有向路径集A,用户的起点位置ei为路径点集E中的第i个路径点,将用户的起点位置ei的状态特征表示为s(ei)=[xi,yi,xD,yD],xi表示起点的经度,yi表示起点的纬度,xD表示终点的经度,yD表示终点的纬度;起点位置ei到终点的骑行时间用Q(s(ei))表示,将起点位置ei的状态特征s(ei)输入BP神经网络得到起点到终点的骑行时间Q(s(ei));
用户在待选路径集合G中所在路径点ei+n∈E,ei+n表示在起点位置ei后的第n个路径点,与起点位置ei相连接的所有路段ai,j组成起点位置ei的有向路径集A(ei);奖励函数r(ei,ai,i+1)表示用户在起点位置ei选择路段ai,i+1的骑行时间Q(s(ei));根据骑行经验执行贪婪策略π和环境交互得到由所在路径点、选择的相邻路段和骑行时间组成的求解:hi:k=ei,ai,i+1,r(ei,ai,i+1),ei+1,ai+1,i+2,...,ek,ek表示终点之前所经过的最后一个路口,即路径点集E中的第k个路径点;
当完成一次求解,Q值发生更新,将求解中用户在起点位置ei以及之后经过的每个路径点表示为[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P中;当每次完成成功求解时,计算成功求解中每个起点位置ei到终点位置的累积折减收益G(hi:k);定义节点记忆N={[s(ei),q(ei)|ei∈E,q(ei)=minG(hi:k)]},二元组s(ei),q(ei)存储起点位置ei的状态特征和起点到终点的最短骑行时间;
采用深度Q-learning算法,神经网路的训练通过最小化起点位置ei到终点的最短骑行时间q(ei)和起点位置ei到终点的骑行时间估计值Q(s(ei))误差平方和,即其中θ为神经网络权重系数;
采用ε贪婪策略,以ε概率选择当前最佳策略,1-ε概率随机选择策略,基于深度Q-learning算法,结合待选路径集合W,选择对应最短距离模式的路径,具体步骤包括:
输入W=(E,A);
初始化节点记忆N,循环执行初始化Q值及神经网络权重系数θ,嵌套循环1至k,在起点位置ei用户满足交通规则时,采用ε贪婪策略选择和起点位置相连的路段ai,i+1
将选择记录[s(ei),ai,i+1,r(ei,ai,i+1)]加入求解,并将记录[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P,直到最后一个路径点ek和终点eD重合结束循环;
计算成功从起点到终点的路径中每个起点位置ei到终点的累积折减收益G(hi:k),并更新节点记忆N;
使用梯度下降更新θ,以最小化[(q(ei)-Q(s(ei),θ))]2,输出贪婪策略ai,i+1=π(ei),得到所选择的一个路段,到达终点后,所有选择的路段组成的路径即与最短距离模式对应的路径。
7.根据权利要求5所述的限制性骑行路径规划方法,其特征在于,所述骑行模式为风景最优模式,所述通过约束深度强化学习算法确定出对骑行模式对应的目标路径,包括:
根据骑行经验设定风景评分初始值g0,待选路径集合W中包括所有路径点组成的路径点集E、有向路径集A、每条待选路径的综合风景评分集g,用户的起点位置ei为路径点集E中的第i个路径点,将用户的起点位置ei的状态特征表示为s(ei)=[xi,yi,xD,yD],xi表示起点的经度,yi表示起点的纬度,xD表示终点的经度,yD表示终点的纬度;起点位置ei到终点的骑行时间用Q(s(ei))表示,将起点位置ei的状态特征s(ei)输入BP神经网络得到起点到终点的骑行时间Q(s(ei));
用户在待选路径集合G中所在路径点ei+n∈E,ei+n表示在起点位置ei后的第n个路径点,与起点位置ei相连接的所有路段ai,j组成起点位置ei的有向路径集A(ei);奖励函数r(ei,ai,i+1)表示用户在起点位置ei选择路段ai,i+1的骑行时间Q(s(ei));根据骑行经验执行贪婪策略π和环境交互得到由所在路径点、选择的相邻路段和骑行时间组成的求解:hi:k=ei,ai,i+1,r(ei,ai,i+1),ei+1,ai+1,i+2,...,ek,ek表示终点之前所经过的最后一个路口,即路径点集E中的第k个路径点;
当完成一次求解,Q值发生更新,将求解中用户在起点位置ei以及之后经过的每个路径点表示为[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P中;当每次完成成功求解时,计算成功求解中每个起点位置ei到终点位置的累积折减收益G(hi:k);定义节点记忆N={[s(ei),q(ei)|ei∈E,q(ei)=minG(hi:k)]},二元组s(ei),q(ei)存储起点位置ei的状态特征和起点到终点的最短骑行时间;
采用深度Q-learning算法,神经网路的训练通过最小化起点位置ei到终点的最短骑行时间q(ei)和起点位置ei到终点的骑行时间估计值Q(s(ei))误差平方和,即其中θ为神经网络权重系数;
采用ε贪婪策略,以ε概率选择当前最佳策略,1-ε概率随机选择策略,基于深度Q-learning算法,结合待选路径集合W,选择对应风景最优模式的路径,具体步骤包括:
输入W=(E,A,g);
初始化节点记忆N,循环执行初始化Q值及神经网络权重系数θ,嵌套循环1至k,在起点位置ei用户满足交通规则时,采用ε贪婪策略选择和起点位置相连的路段ai,i+1
将选择记录[s(ei),ai,i+1,r(ei,ai,i+1)]加入求解,并将记录[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P,直到最后一个路径点ek和终点eD重合结束循环;
计算成功从起点到终点的路径中每个起点位置ei到终点的累积折减收益G(hi:k),并更新节点记忆N;
使用梯度下降更新θ,以最小化输出贪婪策略ai,i+1=π(ei),得到所选择的一个路段,到达终点后,所有选择的路段组成的路径即与风景最优模式对应的路径。
8.根据权利要求5所述的限制性骑行路径规划方法,其特征在于,所述骑行模式为锻炼身体模式,所述通过约束深度强化学习算法确定出对骑行模式对应的目标路径,包括:
设每条待选路径的最低点el海拔为Zl,最高点eh海拔为Zh,海拔差最大值为z,待选路径集合W中包括所有路径点组成的路径点集E、有向路径集A、每条待选路径的最大海拔差集Z,用户的起点位置ei为路径点集E中的第i个路径点,将用户的起点位置ei的状态特征表示为s(ei)=[xi,yi,xD,yD],xi表示起点的经度,yi表示起点的纬度,xD表示终点的经度,yD表示终点的纬度;起点位置ei到终点的骑行时间用Q(s(ei))表示,将起点位置ei的状态特征s(ei)输入BP神经网络得到起点到终点的骑行时间Q(s(ei));
用户在待选路径集合G中所在路径点ei+n∈E,ei+n表示在起点位置ei后的第n个路径点,与起点位置ei相连接的所有路段ai,j组成起点位置ei的有向路径集A(ei);奖励函数r(ei,ai,i+1)表示用户在起点位置ei选择路段ai,i+1的骑行时间Q(s(ei));根据骑行经验执行贪婪策略π和环境交互得到由所在路径点、选择的相邻路段和骑行时间组成的求解:hi:k=ei,ai,i+1,r(ei,ai,i+1),ei+1,ai+1,i+2,...,ek,ek表示终点之前所经过的最后一个路口,即路径点集E中的第k个路径点;
当完成一次求解,Q值发生更新,将求解中用户在起点位置ei以及之后经过的每个路径点表示为[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P中;当每次完成成功求解时,计算成功求解中每个起点位置ei到终点位置的累积折减收益G(hi:k);定义节点记忆N={[s(ei),q(ei)|ei∈E,q(ei)=minG(hi:k)]},二元组s(ei),q(ei)存储起点位置ei的状态特征和起点到终点的最短骑行时间;
采用深度Q-learning算法,神经网路的训练通过最小化起点位置ei到终点的最短骑行时间q(ei)和起点位置ei到终点的骑行时间估计值Q(s(ei))误差平方和,即其中θ为神经网络权重系数;
采用ε贪婪策略,以ε概率选择当前最佳策略,1-ε概率随机选择策略,基于深度Q-learning算法,结合待选路径集合W,选择对应锻炼身体模式的路径,具体步骤包括:
输入W=(E,A,Z);
初始化节点记忆N,循环执行初始化Q值及神经网络权重系数θ,嵌套循环1至k,在起点位置ei用户满足交通规则时,采用ε贪婪策略选择和起点位置相连的路段ai,i+1
将选择记录[s(ei),ai,i+1,r(ei,ai,i+1)]加入求解,并将记录[s(ei),ai,i+1,r(ei,ai,i+1),s(ei+1)]存储于求解记忆P,直到最后一个路径点ek和终点eD重合结束循环;
计算成功从起点到终点的路径中每个起点位置ei到终点的累积折减收益G(hi:k),并更新节点记忆N;
使用梯度下降更新θ,以最小化输出贪婪策略ai,i+1=π(ei),得到所选择的一个路段,到达终点后,所有选择的路段组成的路径即与锻炼身体模式对应的路径。
CN201910371140.2A 2019-05-06 2019-05-06 一种限制性骑行路径规划装置及方法 Active CN110081897B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910371140.2A CN110081897B (zh) 2019-05-06 2019-05-06 一种限制性骑行路径规划装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910371140.2A CN110081897B (zh) 2019-05-06 2019-05-06 一种限制性骑行路径规划装置及方法

Publications (2)

Publication Number Publication Date
CN110081897A true CN110081897A (zh) 2019-08-02
CN110081897B CN110081897B (zh) 2020-10-27

Family

ID=67418757

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910371140.2A Active CN110081897B (zh) 2019-05-06 2019-05-06 一种限制性骑行路径规划装置及方法

Country Status (1)

Country Link
CN (1) CN110081897B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111649758A (zh) * 2020-06-16 2020-09-11 华东师范大学 一种动态环境下基于强化学习算法的路径规划方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201623861U (zh) * 2010-01-13 2010-11-03 王从敏 一种多功能车载终端及车载终端系统
WO2015022555A1 (en) * 2013-08-15 2015-02-19 Gps Tuner Kft. Method for monitoring and navigating a vehicle with electric drive moving towards a predetermined target along a navigated route
CN105989147A (zh) * 2015-03-02 2016-10-05 王灵芝 路径的规划方法及装置
CN107101645A (zh) * 2017-05-05 2017-08-29 中国联合网络通信集团有限公司 一种路径规划方法及路径规划装置
CN107300388A (zh) * 2017-06-04 2017-10-27 东南大学 基于Q‑learning算法和回声状态网络的骑行旅游路线规划方法
CN107850458A (zh) * 2015-08-06 2018-03-27 福特全球技术公司 用于评级和共享具体路线数据的平台
CN108431549A (zh) * 2016-01-05 2018-08-21 御眼视觉技术有限公司 具有施加的约束的经训练的系统
CN108595229A (zh) * 2018-05-10 2018-09-28 Oppo广东移动通信有限公司 导航应用启动方法及相关装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201623861U (zh) * 2010-01-13 2010-11-03 王从敏 一种多功能车载终端及车载终端系统
WO2015022555A1 (en) * 2013-08-15 2015-02-19 Gps Tuner Kft. Method for monitoring and navigating a vehicle with electric drive moving towards a predetermined target along a navigated route
CN105989147A (zh) * 2015-03-02 2016-10-05 王灵芝 路径的规划方法及装置
CN107850458A (zh) * 2015-08-06 2018-03-27 福特全球技术公司 用于评级和共享具体路线数据的平台
CN108431549A (zh) * 2016-01-05 2018-08-21 御眼视觉技术有限公司 具有施加的约束的经训练的系统
CN107101645A (zh) * 2017-05-05 2017-08-29 中国联合网络通信集团有限公司 一种路径规划方法及路径规划装置
CN107300388A (zh) * 2017-06-04 2017-10-27 东南大学 基于Q‑learning算法和回声状态网络的骑行旅游路线规划方法
CN108595229A (zh) * 2018-05-10 2018-09-28 Oppo广东移动通信有限公司 导航应用启动方法及相关装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHENGCHENG XU, JUNYI JI, PAN LIU: "The station-free sharing bike demand forecasting with a deep learning approach and large-scale datasets", 《TRANSPORTATION RESEARCH PART C: EMERGING TECHNOLOGIES》 *
张培君: "具有导航功能的自行车码表——HOLUX-245自行车GPS码表", 《中国自行车》 *
苑国强: "GPS/DR组合导航应用技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111649758A (zh) * 2020-06-16 2020-09-11 华东师范大学 一种动态环境下基于强化学习算法的路径规划方法
CN111649758B (zh) * 2020-06-16 2023-09-15 华东师范大学 一种动态环境下基于强化学习算法的路径规划方法

Also Published As

Publication number Publication date
CN110081897B (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
CN106052696B (zh) 一种基于移动终端的博物馆实时路径诱导方法
CN101488308B (zh) 智能导游系统及方法
US10217033B2 (en) System and method for generating a map from activity data
CN104197945B (zh) 一种基于低采样率浮动车数据的全局投票地图匹配方法
CN103402173B (zh) 一种用于旅游景点的旅游时间优化方法
CN105136160B (zh) 一种基于移动终端和增强现实技术的近距离最优公交站点导航方法
JP5599830B2 (ja) 経路案内システム、経路案内サーバ装置およびナビゲーション端末装置
CN108427965A (zh) 一种基于路网聚类的热点区域挖掘方法
CN107228677A (zh) 偏航识别方法和装置
CN107633317A (zh) 建立行程规划模型以及规划出游行程的方法、装置
CN108120436A (zh) 一种iBeacon辅助地磁室内实景导航方法
CN107784012A (zh) 一种数字地图兴趣点的更新方法及装置
CN106840178A (zh) 一种基于ArcGIS的地图创建与智能车辆自主导航方法及系统
CN108362293A (zh) 一种基于关键点技术的车辆轨迹匹配方法
CN106920387A (zh) 获取交通道路中路线热度的方法及装置
CN107291888A (zh) 基于机器学习统计模型的入住酒店附近生活推荐系统方法
CN108133302A (zh) 一种基于大数据的公共自行车潜在需求预测方法
CN105890608A (zh) 导航参考点确定方法和装置、导航方法和装置
CN109470250A (zh) 一种室内导航方法及系统
CN104105067A (zh) 基于地磁信息的实时定位系统及方法
CN107747947A (zh) 一种基于用户历史gps轨迹的协同旅行路线推荐方法
CN111223013B (zh) 一种基于位置标记的旅游路线智慧生成方法与系统
CN109688532A (zh) 一种划分城市功能区域的方法及装置
CN107036609A (zh) 基于bim的虚拟现实导航方法、服务器、终端及系统
CN104636457B (zh) 一种位置搜索认知的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant