CN109829579A - 最短路线计算方法、装置、计算机设备和存储介质 - Google Patents

最短路线计算方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN109829579A
CN109829579A CN201910056343.2A CN201910056343A CN109829579A CN 109829579 A CN109829579 A CN 109829579A CN 201910056343 A CN201910056343 A CN 201910056343A CN 109829579 A CN109829579 A CN 109829579A
Authority
CN
China
Prior art keywords
hidden state
city
coordinate
decoding
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910056343.2A
Other languages
English (en)
Other versions
CN109829579B (zh
Inventor
陈娴娴
来蕾
阮晓雯
徐亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910056343.2A priority Critical patent/CN109829579B/zh
Publication of CN109829579A publication Critical patent/CN109829579A/zh
Priority to PCT/CN2019/116647 priority patent/WO2020151309A1/zh
Application granted granted Critical
Publication of CN109829579B publication Critical patent/CN109829579B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Navigation (AREA)

Abstract

本申请涉及一种基于人工智能技术领域的最短路线计算方法、装置、计算机设备和存储介质。所述方法包括:获取路线计算任务,所述路线计算任务携带多个城市标识;根据所述城市标识获取对应的城市坐标;根据所述路线计算任务调用神经网络模型,利用所述神经网络模型计算所述城市坐标对应的编码隐状态以及解码隐状态;利用所述神经网络模型根据所述城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率;根据所述路线概率生成多个城市之间的最短路线序列。采用本方法能够有效解决启发式算法引发的输出序列变长的问题,提高了多个城市之间的最短路线计算的准确性。

Description

最短路线计算方法、装置、计算机设备和存储介质
技术领域
本申请涉及计算机技术领域,特别是涉及一种最短路线计算方法、装置、计算机设备和存储介质。
背景技术
在工业应用中,会经常遇到交通运输及物流配送等问题。为了节省时间及提高运输效率,就需要规划经过的多个城市之间的最短路线。多个城市之间的最短路线通常采用启发式算法进行求解,但是启发式算法又容易引发输出序列变长的问题,导致多个城市之间的最短路线计算不准确。因此,如何提高多个城市之间的最短路线计算的准确性成为目前需要解决的一个技术问题。
发明内容
基于此,有必要针对上述技术问题,提供一种最短路线计算方法、装置、计算机设备和存储介质。
一种最短路线计算方法,所述方法包括:
获取路线计算任务,所述路线计算任务携带多个城市标识;
根据所述城市标识获取对应的城市坐标;
根据所述路线计算任务调用神经网络模型,利用所述神经网络模型计算所述城市坐标对应的编码隐状态以及解码隐状态;
利用所述神经网络模型根据所述城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率;
根据所述路线概率生成多个城市之间的最短路线序列。
在其中一个实施例中,所述神经网络模型包括初始编码隐状态以及初始解码隐状态;所述利用所述神经网络模型计算所述城市坐标对应的编码隐状态以及解码隐状态包括:通过所述神经网络模型利用所述初始编码隐状态对所述城市坐标进行编码,得到与所述城市坐标对应的编码隐状态;通过所述神经网络模型利用所述初始解码隐状态对所述城市坐标对应的编码隐状态进行解码,得到与所述城市坐标对应的解码隐状态。
在其中一个实施例中,所述利用所述神经网络模型根据所述城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率;包括:将每个城市坐标对应的解码隐状态与所述多个城市坐标对应的编码隐状态进行比对,得到所述每个城市坐标对应的解码隐状态与所述多个城市标识对应的编码隐状态的相似度;将所述相似度进行归一化处理,得到每个城市标识的路线概率。
在其中一个实施例中,所述根据路线概率生成多个城市之间的最短路线序列,包括:利用所述解码隐状态与对应的相似度生成每个城市标识对应的注意力指针;根据所述注意力指针指向所述路线概率中的最大概率,将所述最大概率对应的城市标识进行输出。
在其中一个实施例中,所述方法还包括:将所述城市坐标对应的编码隐状态的位置信息进行存储;根据所述位置信息将每个城市坐标对应的解码隐状态与所述多个城市坐标对应的编码隐状态进行比对,得到所述解码隐状态对应的相似度。
在其中一个实施例中,所述方法还包括:根据所述城市坐标获取预设最短路线序列;根据所述城市坐标、预设最短路线序列、最短路线序列以及预设关系计算所述最短路线序列的损失。
一种最短路线计算装置,所述装置包括:
通信模块,用于获取路线计算任务,所述路线计算任务携带多个城市标识;
坐标获取模块,用于根据所述城市标识获取对应的城市坐标;
状态计算模块,用于根据所述路线计算任务调用神经网络模型,利用所述神经网络模型计算所述城市坐标对应的编码隐状态以及解码隐状态;
概率计算模块,用于利用所述神经网络模型根据所述城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率;
序列生成模块,用于根据所述路线概率生成多个城市之间的最短路线序列。
在其中一个实施例中,所述状态计算模块用于通过所述神经网络模型利用所述初始编码隐状态对所述城市坐标进行编码,得到与所述城市坐标对应的编码隐状态;通过所述神经网络模型利用所述初始解码隐状态对所述多个城市坐标对应的编码隐状态进行解码,得到与所述城市坐标对应的解码隐状态。
一种计算机设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述各个方法实施例中的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述各个方法实施例中的步骤。
上述最短路线计算方法、装置、计算机设备和存储介质,通过神经网络模型计算城市坐标对应的编码隐状态以及解码隐状态,利用神经网络模型根据城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率。从而根据每个城市标识的路线概率生成多个城市之间的最短路线序列,使输出的最短路线序列的长度与城市坐标生成的城市序列的长度一一对应。由此能够有效解决启发式算法引发的输出序列变长的问题,提高了多个城市之间的最短路线计算的准确性。
附图说明
图1为一个实施例中最短路线计算方法的应用环境图;
图2为一个实施例中最短路线计算方法的流程示意图;
图3为一个实施例中计算每个城市标识的路线概率步骤的流程示意图;
图4为一个实施例中最短路线计算装置的结构框图;
图5为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的最短路线计算方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。服务器104获取终端102上传的路线计算任务,路线计算任务携带多个城市标识。服务器104根据城市标识获取对应的城市坐标。服务器104根据路线计算任务调用神经网络模型,利用神经网络模型计算城市坐标对应的编码隐状态以及解码隐状态。服务器104利用神经网络模型根据城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率。服务器104根据路线概率生成多个城市之间的最短路线序列,使输出的最短路线序列的长度与城市坐标生成的城市序列的长度一一对应。由此能够有效解决启发式算法引发的输出序列变长的问题,提高了多个城市之间的最短路线计算的准确性。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种最短线路计算方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,获取路线计算任务,路线计算任务携带多个城市标识。
步骤204,根据城市标识获取对应的城市坐标。
服务器获取路线计算任务,路线计算任务可以是终端上传的,也可以是服务器创建的。服务器对路线计算任务进行解析,得到路线计算任务携带的多个城市标识。其中,城市标识可以是数字、文字、字母等字符中的任意一种或多种的组合。服务器根据城市标识获取对应的城市坐标,城市坐标可以是地理坐标。服务器将城市坐标按照城市标识的顺序生成城市序列,城市序列中城市坐标的顺序表示服务器利用神经网络模型对城市坐标进行编码的顺序。。例如,服务器获取终端上传的路线计算任务,对路线计算任务解析,得到路线计算任务携带的五个数字标识1、2、3、4、5,始发站为数字标识1代表的城市。服务器根据数字标识获取对应的城市坐标,将城市坐标按照城市标识1、2、3、4、5的顺序生成城市序列[[0,0],[0,1],[-1,1],[1,1],[0,2]]。服务器利用神经网络模型按照城市序列中城市坐标的顺序依次对城市坐标进行编码。
步骤206,根据路线计算任务调用神经网络模型,利用神经网络模型计算城市坐标对应的编码隐状态以及解码隐状态。
服务器在根据城市标识获取对应的城市坐标,将城市坐标按照城市标识的顺序生成城市序列后,可根据路线计算任务调用神经网络模型,利用神经网络模型计算城市坐标对应的编码隐状态以及解码隐状态。具体的,服务器根据路线计算任务调用神经网络模型,神经网络模型包括初始隐状态,初始隐状态包括初始编码隐状态以及初始解码隐状态。初始编码隐状态是指服务器通过神经网络模型对城市坐标进行编码时的一个初始化的状态信息。初始解码隐状态是指服务器通过神经网络模型对城市坐标编码完成后,对多个城市坐标对应的编码隐状态进行解码时的一个初始化的状态信息。
在编码过程中,服务器通过神经网络模型利用初始编码隐状态对城市坐标进行编码,得到与城市坐标对应的编码隐状态。其中,编码隐状态是指服务器通过神经网络模型对城市坐标进行编码的过程中输出的状态信息。当服务器通过神经网络模型对所有的城市坐标编码完成后,将多个城市坐标对应的编码隐状态作为语义向量传送至解码过程,此时编码过程结束。
在编码过程结束后,进入解码过程,解码过程包括多个解码环节,解码环节与城市标识一一对应。服务器通过神经网络模型利用初始解码隐状态对多个城市坐标对应的编码隐状态进行解码,得到与城市坐标对应的解码隐状态。可以将多个城市坐标对应的编码隐状态作为语义向量,以下称为语义向量。其中,解码隐状态是指服务器通过神经网络模型对语义向量进行解码的过程中输出的状态信息。
步骤208,利用神经网络模型根据城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率。
服务器在利用神经网络模型计算城市坐标对应的编码隐状态以及解码隐状态后,可利用神经网络模型根据城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率。其中,路线概率是指服务器利用神经网络模型对语义向量进行解码的过程中,每个解码环节输出每个城市标识的概率,也可以称为注意力分配概率。预设关系可以是城市坐标对应的编码隐状态与城市坐标对应的解码隐状态之间的关系,预设关系可以用相似度函数来表示。具体的,服务器利用神经网络模型对语义向量进行解码,每输出一个解码隐状态,将该解码隐状态与编码过程中多个城市坐标对应的编码隐状态进行比对,得到每个城市坐标对应的解码隐状态与多个城市标识对应的编码隐状态的相似度。服务器将相似度进行归一化处理,得到每个城市标识的路线概率。其中,归一化处理方式可以利用softmax函数。
步骤210,根据路线概率生成多个城市之间的最短路线序列。
服务器计算每个城市标识的路线概率后,可根据路线概率生成多个城市之间的最短路线序列。具体的,服务器将每个城市坐标对应的解码隐状态与编码过程中多个城市坐标对应的编码隐状态进行比对,计算每个城市坐标对应的解码隐状态与多个城市标识对应的编码隐状态的相似度。服务器利用解码隐状态与对应的相似度生成每个城市标识对应的注意力指针,根据注意力指针指向所述路线概率中的最大概率,将最大概率对应的城市标识进行输出。在解码过程中,每个解码环节会输出一个最大概率对应的城市标识,根据多个最大概率对应的城市标识生成多个城市之间的最短路线序列。
例如,服务器根据数字标识获取对应的城市坐标,将多个城市坐标按照城市标识的顺序生成城市序列[[0,0],[0,1],[-1,1],[1,1],[0,2]]。在编码过程中,服务器根据路线计算任务调用神经网络模型,通过神经网络模型利用初始编码隐状态按照城市序列中城市坐标的顺序对城市坐标进行编码。在第一个编码环节,服务器通过神经网络模型利用初始编码隐状态e0对1号城市的城市坐标[0,0]进行编码,输出编码隐状态e1。在第二个编码环节,服务器通过神经网络模型利用编码隐状态e1对2号城市的城市坐标[0,1]进行编码,输出编码隐状态e2。根据上述编码过程对城市坐标进行编码,在第五个编码环节,服务器通过神经网络模型利用编码隐状态e4对5号城市的城市坐标[0,2]进行编码,输出编码隐状态s5。服务器可以将编码隐状态e5作为语义向量c传送至编码过程,此时编码过程结束。
在编码过程结束后,进行进入解码过程。在第一个解码环节,服务器通过神经网络模型读取初始解码隐状态d0以及始发站的城市标识1对语义向量c进行解码,输出解码隐状态d1。将解码隐状态d1与编码过程中的编码隐状态{e1,e2,e3,e4,e5}进行比对,根据相似度函数计算对应的相似度。将相似度进行归一化处理,得到每个城市标识的路线概率{0.1,0.2,0.2,0.4,0.1}。选取最大概率0.4对应的4号城市进行输出。在第二个解码环节,服务器通过神经网络模型读取城市标识4以及解码隐状态d1对语义向量c进行解码,输出解码隐状态d2。将解码隐状态d2与编码过程中的编码隐状态{e1,e2,e3,e4,e5}进行比对,根据相似度计算公式计算对应的相似度。将相似度进行归一化处理,得到每个城市标识的路线概率{0.05,0.4,0.1,0.3,0.15},选取最大概率0.4对应的2号城市进行输出。根据上述解码过程对语义向量进行解码,得到多个城市之间的最短路线序列{1,4,2,5,3}。
在本实施例中,通过神经网络模型计算城市坐标对应的编码隐状态以及解码隐状态,利用神经网络模型根据城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率。从而根据每个城市标识的路线概率生成多个城市之间的最短路线序列,使输出的最短路线序列的长度与获取的城市序列的长度一一对应。由此能够有效解决启发式算法引发的输出序列变长的问题,提高了多个城市之间的最短路线计算的准确性。
在一个实施例中,神经网络模型包括初始编码隐状态以及初始解码隐状态;利用神经网络模型计算城市坐标对应的编码隐状态以及解码隐状态包括:通过神经网络模型利用初始编码隐状态对城市坐标进行编码,得到与城市坐标对应的编码隐状态;通过神经网络模型利用初始解码隐状态对城市坐标对应的编码隐状态进行解码,得到与城市坐标对应的解码隐状态。
服务器通过神经网络模型依次对城市坐标进行编码,编码过程包括多个编码环节,编码环节与城市坐标一一对应。在第一个编码环节,服务器通过神经网络模型利用初始解码隐状态对任意一个城市坐标进行编码,输出与该城市坐标对应的编码隐状态,将编码隐状态传送至下一个编码环节,对下一个城市坐标进行编码,得到多个编码隐状态。服务器通过神经网络模型读取初始解码隐状态以及始发站的城市标识对城市坐标对应的编码隐状态进行解码,输出城市坐标对应的解码隐状态,将该解码隐状态传送至下一个解码环节,服务器通过神经网络模型对语义向量进行循环解码,得到城市坐标对应的解码隐状态。
在本实施例中,服务器通过神经网络模型利用初始编码隐状态对城市坐标进行编码以及利用初始解码隐状态对城市坐标对应的编码隐状态进行解码,能够更加准确地对城市坐标进行数据分析,有效提高最短路线计算的准确性。
在一个实施例中,上述方法还包括:利用神经网络模型根据城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率的步骤,如图3所示,该步骤具体包括:
步骤302,将每个城市坐标对应的解码隐状态与多个城市坐标对应的编码隐状态进行比对,得到每个城市坐标对应的解码隐状态与多个城市标识对应的编码隐状态的相似度。
步骤304,将相似度进行归一化处理,得到每个城市标识的路线概率。
服务器在得到与城市坐标对应的编码隐状态以及解码隐状态后,可将每个城市坐标对应的解码隐状态与多个城市坐标对应的编码隐状态进行比对。具体的,服务器在利用神经网络模型进行解码的过程中,每输出一个解码隐状态,就将解码隐状态与编码过程中的多个城市坐标对应的编码隐状态进行比对,计算解码隐状态与每个编码隐状态的相似度。其中,相似度可以通过如下公式进行计算:
其中,为第i个解码隐状态与j个城市坐标对应的编码隐状态的相似度,可以称为解码过程的激活函数,i为当前解码隐状态的顺序,j为编码隐状态的个数,v为模型参数,T为向量转置函数,ej为j个编码隐状态,di为第i个解码隐状态,W1为模型参数,W2为模型参数。
服务器在计算每个城市坐标对应的解码隐状态与多个城市标识对应的编码隐状态的相似度后,可将相似度进行归一化处理,得到每个城市标识的路线概率。其中,归一化处理方式可以利用softmax函数。路线概率可以利用如下公式进行计算:
P(Ci|C1,…,Ci-1,P)=softmax(ui)
其中,C1,…,Ci-1,P为每个城市标识的路线概率。
在传统方式中,可以建立多个城市对应的神经网络模型,例如Sequence toSequence模型(序列转换模型,简称Seq2Seq模型),以解决输出序列变长的问题。但是当城市数量改变时,输出序列的长度也相应改变,导致该神经网络模型不再适用。因此,在面对城市数量发生变化的情况下,神经网络模型的通用性存在问题。而在本实施例中,当城市数量改变时,只需要计算对城市坐标对应的解码隐状态与多个城市标识对应的编码隐状态的相似度,将相似度进行归一化处理,再将最大概率对应的城市标识进行输出,此时输出序列的长度与城市坐标生成的城市序列的长度一一对应,解决了普通神经网络无法解决的输出序列长度严重依赖于输入序列长度这类问题,不需要对城市数量改变后的训练集进行训练,实现解决不同城市数量的最短路线计算问题。
在一个实施例中,根据路线概率生成多个城市之间的最短路线序列,包括:利用解码隐状态与对应的相似度生成每个城市标识对应的注意力指针;根据注意力指针指向路线概率中的最大概率;将最大概率对应的城市标识进行输出。
服务器在将每个城市坐标对应的解码隐状态与多个城市坐标对应的编码隐状态进行比对,在进行比对的过程中会生成每个城市标识对应的注意力指针,注意力是指从大量的输入信息中选择小部分的有用信息来重点处理,并忽略其他信息的能力。在每一个解码环节,都会对城市坐标对应的解码隐状态与多个城市标识对应的编码隐状态的相似度进行计算,将相似度进行归一化处理,得到每个城市标识对应的路线概率。服务器根据注意力指针选取路线概率中的最大概率,输出最大概率对应的城市标识,从而得到多个最大概率对应的城市标识生成的最短路线序列。
在本实施例中,服务器根据注意力指针指向路线概率中的最大概率,不需要考率城市序列中的城市坐标。通过将最大概率对应的城市标识进行输出,由此可以得到最短路线序列,最短路线序列的长度与城市坐标生成的城市序列的长度一一对应,解决了普通神经网络无法解决的输出序列长度严重依赖于输入序列长度这类问题,不需要对城市数量改变后的训练集进行训练,实现解决不同城市数量的最短路线计算问题。
在一个实施例中,上述方法还包括:将城市坐标对应的编码隐状态的位置信息进行存储;根据位置信息将每个城市坐标对应的解码隐状态与多个城市坐标对应的编码隐状态进行比对,得到解码隐状态对应的相似度。
服务器利用神经网络模型对城市坐标进行编码的过程中,每输出一个城市坐标对应的编码隐状态,识别将该编码隐状态的位置信息,将位置信息进行存储。服务器将每个编码隐状态的位置信息传送至解码过程,在解码过程中的每个解码环节,根据编码隐状态的位置信息将每个城市坐标对应的解码隐状态与多个城市坐标对应的编码隐状态进行比对,从而得到解码隐状态对应的相似度。
在本实施例中,服务器通过将每个编码隐状态的位置信息传送至解码过程,缩短了信息传递距离,有效提高了比对效率。
在一个实施例中,上述方法还包括:根据城市坐标获取预设最短路线序列;根据城市坐标、预设最短路线序列、最短路线序列以及预设关系计算最短路线序列的损失。
在本实施例中,服务器根据城市坐标获取预设最短路线序列,将城市坐标按照城市标识的顺序生成城市序列,利用城市坐标序列以及预设关系计算最短路线序列的损失。其中,预设关系可以是预设最短路线序列与最短路线序列之间的关系,预设关系可以用损失函数来表示。最短路线序列的损失可以通过如下公式进行计算:
其中,C为最短路线序列的损失,n为城市坐标的总数,x为获取的城市坐标,y为预设最短路线序列中的城市坐标,a为最短路线序列中的的城市坐标。
在本实施例中,服务器通过获取预设最短路线序列,计算最短路线序列的损失,在此基础上,服务器可以通过神经网络模型来训练参数使最短路线序列的损失减小,有效提高最短路线序列计算的准确性。
应该理解的是,虽然图2-3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-3中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图4所示,提供了一种最短线路计算装置,包括:通信模块402、坐标获取模块404、状态计算模块406、概率计算模块408以及序列生成模块410,其中:
通信模块402,用于获取路线计算任务,路线计算任务携带多个城市标识。
坐标获取模块404,用于根据城市标识获取对应的城市坐标。
状态计算模块406,用于根据路线计算任务调用神经网络模型,利用神经网络模型计算城市坐标对应的编码隐状态以及解码隐状态。
概率计算模块408,用于利用神经网络模型根据城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率。
序列生成模块410,用于根据路线概率生成多个城市之间的最短路线序列。
在一个实施例中,状态计算模块406用于通过神经网络模型利用初始编码隐状态对城市坐标进行编码,得到与城市坐标对应的编码隐状态;通过神经网络模型利用初始解码隐状态对多个城市坐标对应的编码隐状态进行解码,得到与城市坐标对应的解码隐状态。
在一个实施例中,概率计算模块408用于将每个城市坐标对应的解码隐状态与多个城市坐标对应的编码隐状态进行比对,得到每个城市坐标对应的解码隐状态与多个城市标识对应的编码隐状态的相似度;将相似度进行归一化处理,得到每个城市标识的路线概率。
在一个实施例中,序列生成模块410用于利用解码隐状态与对应的相似度生成每个城市标识对应的注意力指针;根据注意力指针指向路线概率中的最大概率,将最大概率对应的城市标识进行输出。
在一个实施例中,上述装置还包括相似度计算模块,该相似度计算模块用于将城市坐标对应的编码隐状态的位置信息进行存储;根据位置信息将每个城市坐标对应的解码隐状态与多个城市坐标对应的编码隐状态进行比对,得到解码隐状态对应的相似度。
在一个实施例中,上述装置还包括损失计算模块,该损失计算模块用于根据城市坐标获取预设最短路线序列;根据城市坐标、预设最短路线序列、最短路线序列以及预设关系计算最短路线序列的损失。
关于最短路线计算装置的具体限定可以参见上文中对于最短路线计算方法的限定,在此不再赘述。上述最短路线计算装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储城市坐标对应的状态信息。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种最短路线计算方法。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各个方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种最短路线计算方法,所述方法包括:
获取路线计算任务,所述路线计算任务携带多个城市标识;
根据所述城市标识获取对应的城市坐标;
根据所述路线计算任务调用神经网络模型,利用所述神经网络模型计算所述城市坐标对应的编码隐状态以及解码隐状态;
利用所述神经网络模型根据所述城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率;
根据所述路线概率生成多个城市之间的最短路线序列。
2.根据权利要求1所述的方法,其特征在于,所述神经网络模型包括初始编码隐状态以及初始解码隐状态;所述利用所述神经网络模型计算所述城市坐标对应的编码隐状态以及解码隐状态包括:
通过所述神经网络模型利用所述初始编码隐状态对所述城市坐标进行编码,得到与所述城市坐标对应的编码隐状态;
通过所述神经网络模型利用所述初始解码隐状态以及城市标识对所述城市坐标对应的编码隐状态进行解码,得到与所述城市坐标对应的解码隐状态。
3.根据权利要求1所述的方法,其特征在于,所述利用所述神经网络模型根据所述城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率;包括:
将每个城市坐标对应的解码隐状态与多个城市坐标对应的编码隐状态进行比对,得到所述每个城市坐标对应的解码隐状态与所述多个城市标识对应的编码隐状态的相似度;
将所述相似度进行归一化处理,得到每个城市标识的路线概率。
4.根据权利要求3所述的方法,其特征在于,所述根据路线概率生成多个城市之间的最短路线序列,包括:
利用所述解码隐状态与对应的相似度生成每个城市标识对应的注意力指针;
根据所述注意力指针指向所述路线概率中的最大概率,将所述最大概率对应的城市标识进行输出。
5.根据权利要求3所述的方法,其特征在于,所述方法还包括:
将所述城市坐标对应的编码隐状态的位置信息进行存储;
根据所述位置信息将每个城市坐标对应的解码隐状态与所述多个城市坐标对应的编码隐状态进行比对,得到所述解码隐状态对应的相似度。
6.根据权利要求1至5任意一项所述的方法,其特征在于,所述方法还包括:
根据所述城市坐标获取预设最短路线序列;
根据所述城市坐标、预设最短路线序列、最短路线序列以及预设关系计算所述最短路线序列的损失。
7.一种最短路线计算装置,其特征在于,所述装置包括:
通信模块,用于获取路线计算任务,所述路线计算任务携带多个城市标识;
坐标获取模块,用于根据所述城市标识获取对应的城市坐标;
状态计算模块,用于根据所述路线计算任务调用神经网络模型,利用所述神经网络模型计算所述城市坐标对应的编码隐状态以及解码隐状态;
概率计算模块,用于利用所述神经网络模型根据所述城市坐标对应的编码隐状态、解码隐状态以及预设关系计算每个城市标识的路线概率;
序列生成模块,用于根据所述路线概率生成多个城市之间的最短路线序列。
8.根据权利要求7所述的装置,其特征在于,所述状态计算模块用于通过所述神经网络模型利用所述初始编码隐状态对所述城市坐标进行编码,得到与所述城市坐标对应的编码隐状态;通过所述神经网络模型利用所述初始解码隐状态对所述多个城市坐标对应的编码隐状态进行解码,得到与所述城市坐标对应的解码隐状态。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述方法的步骤。
CN201910056343.2A 2019-01-22 2019-01-22 最短路线计算方法、装置、计算机设备和存储介质 Active CN109829579B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910056343.2A CN109829579B (zh) 2019-01-22 2019-01-22 最短路线计算方法、装置、计算机设备和存储介质
PCT/CN2019/116647 WO2020151309A1 (zh) 2019-01-22 2019-11-08 最短路线计算方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910056343.2A CN109829579B (zh) 2019-01-22 2019-01-22 最短路线计算方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN109829579A true CN109829579A (zh) 2019-05-31
CN109829579B CN109829579B (zh) 2023-01-24

Family

ID=66860458

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910056343.2A Active CN109829579B (zh) 2019-01-22 2019-01-22 最短路线计算方法、装置、计算机设备和存储介质

Country Status (2)

Country Link
CN (1) CN109829579B (zh)
WO (1) WO2020151309A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020151309A1 (zh) * 2019-01-22 2020-07-30 平安科技(深圳)有限公司 最短路线计算方法、装置、计算机设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150323337A1 (en) * 2014-05-07 2015-11-12 Yahoo! Inc. System and method for recommending pleasant routes from the sentiment of geo-tagged photographs
CN107484017A (zh) * 2017-07-25 2017-12-15 天津大学 基于注意力模型的有监督视频摘要生成方法
CN108628904A (zh) * 2017-03-23 2018-10-09 北京嘀嘀无限科技发展有限公司 一种路径编码、相似路径检索方法及装置和电子设备
WO2018191344A1 (en) * 2017-04-14 2018-10-18 Salesforce.Com, Inc. Neural machine translation with latent tree attention
WO2018207390A1 (en) * 2017-05-11 2018-11-15 Mitsubishi Electric Corporation Speech recognition system and method for speech recognition
CN109116100A (zh) * 2018-07-09 2019-01-01 清华大学 一种基于编码-解码结构的电力负荷用电分解方法
CN109241291A (zh) * 2018-07-18 2019-01-18 华南师范大学 基于深度强化学习的知识图谱最优路径查询系统及其方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102073669A (zh) * 2010-10-15 2011-05-25 江苏鸿信系统集成有限公司 基于全国范围内路网结构的任意城市间最优路径选择方法
CN106991159B (zh) * 2017-03-30 2018-07-24 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
CN108303113A (zh) * 2018-01-26 2018-07-20 北京小度信息科技有限公司 导航路径优化方法、装置、电子设备及计算机存储介质
CN109829579B (zh) * 2019-01-22 2023-01-24 平安科技(深圳)有限公司 最短路线计算方法、装置、计算机设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150323337A1 (en) * 2014-05-07 2015-11-12 Yahoo! Inc. System and method for recommending pleasant routes from the sentiment of geo-tagged photographs
CN108628904A (zh) * 2017-03-23 2018-10-09 北京嘀嘀无限科技发展有限公司 一种路径编码、相似路径检索方法及装置和电子设备
WO2018191344A1 (en) * 2017-04-14 2018-10-18 Salesforce.Com, Inc. Neural machine translation with latent tree attention
WO2018207390A1 (en) * 2017-05-11 2018-11-15 Mitsubishi Electric Corporation Speech recognition system and method for speech recognition
CN107484017A (zh) * 2017-07-25 2017-12-15 天津大学 基于注意力模型的有监督视频摘要生成方法
CN109116100A (zh) * 2018-07-09 2019-01-01 清华大学 一种基于编码-解码结构的电力负荷用电分解方法
CN109241291A (zh) * 2018-07-18 2019-01-18 华南师范大学 基于深度强化学习的知识图谱最优路径查询系统及其方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ORIOL VINYALS等: ""Pointer Networks"", 《NEURAL INFORMATION PROCESSING SYSTEMS》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020151309A1 (zh) * 2019-01-22 2020-07-30 平安科技(深圳)有限公司 最短路线计算方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN109829579B (zh) 2023-01-24
WO2020151309A1 (zh) 2020-07-30

Similar Documents

Publication Publication Date Title
CN108491320A (zh) 应用程序的异常分析方法、装置、计算机设备和存储介质
CN111309889A (zh) 用于文本处理的方法和装置
CN111522839B (zh) 一种基于深度学习的自然语言查询方法
CN110704588A (zh) 基于长短期记忆网络的多轮对话语义分析方法和系统
US20190318249A1 (en) Interpretable general reasoning system using key value memory networks
CN113449489B (zh) 标点符号标注方法、装置、计算机设备和存储介质
CN110910864A (zh) 训练样本的选取方法、装置、计算机设备和存储介质
US20190266474A1 (en) Systems And Method For Character Sequence Recognition
CN110619124A (zh) 一种结合注意力机制与双向lstm的命名实体识别方法及系统
CN108597517A (zh) 标点符号添加方法、装置、计算机设备和存储介质
CN110378781A (zh) 数据监控方法、装置、计算机设备和存储介质
CN110362542A (zh) 核电站文件编码方法、装置、计算机设备和存储介质
Hahne et al. Attention on abstract visual reasoning
CN113362810A (zh) 语音处理模型的训练方法、装置、设备及存储介质
CN112837673B (zh) 基于人工智能的语音合成方法、装置、计算机设备和介质
CN109829579A (zh) 最短路线计算方法、装置、计算机设备和存储介质
CN106649210A (zh) 一种数据转换方法及装置
CN113343677B (zh) 一种意图识别方法、装置、电子设备及存储介质
CN114138231A (zh) 执行矩阵乘法运算的方法、电路及soc
US6957178B2 (en) Incremental automata verification
CN117078569A (zh) 神经网络模型推理框架的处理方法和装置、电子设备
CN114880485A (zh) 阅读理解答案生成的方法、装置、计算机设备和存储介质
CN114358023A (zh) 智能问答召回方法、装置、计算机设备及存储介质
CN112464637A (zh) 基于标签的优化模型训练方法、装置、设备及存储介质
CN110196975A (zh) 问题生成方法、装置、设备、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant