货源信息的数据降维方法、装置、电子设备、存储介质
技术领域
本发明涉及计算机应用技术领域,尤其涉及一种货源信息的数据降维方法、装置、电子设备、存储介质。
背景技术
货源数据的主要属性是车长、车型、货重、货源属性等。维度非常丰富。以路线距离为例,国内重要物流节点城市超过800,他们的交叉组合会产生几十万个路线,如果将这些路线进行1hot编码会生成非常稀疏的向量,从而影响模型效果。由此,货源数据不仅维度过多,且每个维度的数据都有可能会形成非常稀疏的向量。若在训练模型中,直接使用货源数据,将需要更多的算力,增加模型的训练时间,同时难以达到模型的预测效果,预测准确率低。
发明内容
本发明为了克服上述相关技术存在的缺陷,提供一种货源信息的数据降维方法、装置、电子设备、存储介质,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的一个或者多个问题。
根据本发明的一个方面,提供一种货源信息的数据降维方法,包括:
对多个货源的货源信息标准化;
将标准化的货源信息转换为货源隐向量;
根据司机第一时间段内的对货源的行为,赋予货源的货源隐向量不同权重;
依据确定的权重对货源隐向量加权求和生成第一货源向量;
将第一货源向量与司机属性拼接生成输入向量;
将所述输入向量输入第一循环神经网络模型;
将所述第一循环神经网络模型的输出向量作为司机隐向量;以及
利用司机隐向量在货源隐向量中搜索,得到待推荐的货源列表。
可选地,所述第一循环神经网络模型采用ReLU作为激活函数。
可选地,所述货源信息包括车长、车型、货重、货源属性中的一项或多项。
可选地,所述对多个货源的货源信息标准化包括:
将所述货源信息标准化为相同数据类型的信息。
可选地,将标准化的货源信息转换为货源隐向量包括:
将标准化的货源信息输入第二循环神经网络模型;
将所述第二循环神经网络模型的输出作为货源隐向量。
可选地,根据司机第二时间段内的对货源的行为关联该货源的货源信息输入所述第二循环神经网络模型。
可选地,所述第二循环神经网络模型为长短期记忆网络。
可选地,所述用司机隐向量在货源隐向量中搜索,得到待推荐的货源列表包括:
计算所述司机隐向量与各货源隐向量的距离;
根据距离与司机隐向量最近的N个货源,生成待推荐的货源列表,N为大于0的整数。
根据本发明的又一方面,还提供一种货源信息的数据降维装置,包括:
标准化模块,用于对多个货源的货源信息标准化;
转换模块,用于将标准化的货源信息转换为货源隐向量;
权重模块,用于根据司机第一时间段内的对货源的行为,赋予货源的货源隐向量不同权重;
加权模块,用于依据确定的权重对货源隐向量加权求和生成第一货源向量;
拼接模块,用于将第一货源向量与司机属性拼接生成输入向量;
输入模块,用于将所述输入向量输入第一循环神经网络模型;
输出模块,用于将所述第一循环神经网络模型的输出向量作为司机隐向量;以及
搜索模块,用于利用司机隐向量在货源隐向量中搜索,得到待推荐的货源列表。
根据本发明的又一方面,还提供一种电子设备,所述电子设备包括:处理器;存储介质,其上存储有计算机程序,所述计算机程序被所述处理器运行时执行如上所述的步骤。
根据本发明的又一方面,还提供一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如上所述的步骤。
相比现有技术,本发明的优势在于:
一方面,通过隐向量的方式把货源数据降维,进而得到了货源的一个稠密向量表示;另一方面,通过对降维的货源数据作为向量距离的计算对象来获得待推荐的货源列表,提高预测准确率,同时加快模型训练的效率。
附图说明
通过参照附图详细描述其示例实施方式,本发明的上述和其它特征及优点将变得更加明显。
图1示出了根据本发明实施例的货源信息的数据降维方法的流程图。
图2示出了根据本发明具体实施例的货源信息的数据降维方法的示意图。
图3示出了根据本发明具体实施例的货源信息的数据降维装置的示意图。
图4示出了根据本发明具体实施例的货源信息的数据降维装置的示意图。
图5示意性示出本发明示例性实施例中一种计算机可读存储介质示意图。
图6示意性示出本发明示例性实施例中一种电子设备示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此,实际执行的顺序有可能根据实际情况改变。
图1示出了根据本发明实施例的货源信息的数据降维方法的流程图。参考图1,所述货源信息的数据降维方法包括如下步骤:
步骤S110:对多个货源的货源信息标准化;
步骤S120:将标准化的货源信息转换为货源隐向量;
步骤S130:根据司机第一时间段内的对货源的行为,赋予货源的货源隐向量不同权重;
步骤S130:依据确定的权重对货源隐向量加权求和生成第一货源向量;
步骤S140:将第一货源向量与司机属性拼接生成输入向量;
步骤S150:将所述输入向量输入第一循环神经网络模型;
步骤S160:将所述第一循环神经网络模型的输出向量作为司机隐向量;以及
步骤S170:利用司机隐向量在货源隐向量中搜索,得到待推荐的货源列表。
在本发明的示例性实施方式的货源信息的数据降维方法中,一方面,通过隐向量的方式把货源数据降维,进而得到了货源的一个稠密向量表示;另一方面,通过对降维的货源数据作为向量距离的计算对象来获得待推荐的货源列表,提高预测准确率,同时加快模型训练的效率。
下面将结合图2具体描述本发明提供的货源信息的数据降维方法:
首先,获得多个货源的货源信息201。货源信息可以包括车长、车型、货重、多种货源属性等等。然后对货源信息201进行标准化以获得标准化的货源信息202。具体而言,货源信息201的标准化可以将不同类型的货源信息统一为同一数据格式。在一些实施例中,货源信息201的标准化可以包括货源信息201的向量化。针对不同的货源信息201可以采用不同的向量化的方式。
本发明不限制货源信息201的向量化的方式。进一步的,货源信息201的标准化还可以包括将货源信息201统一为同一长度。
然后,将标准化的货源信息202转换为货源隐向量203。将标准化的货源信息202转换为货源隐向量203的步骤可以包括将标准化的货源信息输入第二循环神经网络模型,并将所述第二循环神经网络模型的输出作为货源隐向量。具体而言,在货源隐向量的转化步骤中,还根据司机第二时间段(例如,10分钟内、30分钟内等)内的对货源的行为关联该货源的货源信息输入所述第二循环神经网络模型。司机对货源的行为可以包括司机对货源的浏览、点击、下单等。该第二循环神经网络模型可以是长短期记忆网络。
具体而言,货源的货源信息201很少独立出现,因此,需要寻找比随机初始化方法更好的向量而得出货源隐向量203。可以使用第二循环神经网络(RNN)将货源的货源信息201语境化。循环神经网络是能够处理可变长度向量序列的深度学习模型。这一特性使得它们很适合来处理词向量序列。为了更好地处理长序列,可以使用了一种特定种类的RNN,即长短期记忆(LSTM)网络。在处理过程的每一步中,LSTM输入一个词向量,输出一个被称作隐向量的新向量。隐向量并不包含出现在当前输入序列之后的单词的信息,可以反向运行一个LSTM以得到一些反向的输出向量。若将这一对前向-反向LSTM看做一个单元,则第二循环神经网络可以是双向LSTM。它以一个标准化的货源信息202的序列作为输入,运行了前向和反向LSTM,并将每个LSTM对应的输出连接成一个输出,然后返回最终得到的货源隐向量203。第二循环神经网络模型可以采用司机第二时间段内的对货源的行为作为一个输入的参数,本发明并非以此为限。
货源隐向量203的获得方式可以包括word2vec、GloVe或者FastText。Word2vec是为一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系,该向量为神经网络之隐藏层。GloVe(Global Vectorsfor Word Representation)基于全局信息的词向量模型在充分利用了语料库的全局统计信息的同时,也提高了词向量在大语料上的训练速度(一个共现矩阵的遍历要比整个语料库的遍历容易的多)。fastText是开源的一个词向量计算和文本分类工具,但是它的优点也非常明显,在文本分类任务中,fastText(浅层网络)往往能取得和深度网络相媲美的精度,却在训练时间上比深度网络快许多数量级。在标准的多核CPU上,能够训练10亿词级别语料库的词向量在10分钟之内,能够分类有着30万多类别的50多万句子在1分钟之内。本发明并非以此为限。
然后,根据司机第一时间段(例如,10分钟内、30分钟内、6个小时等)内的对货源的行为,赋予货源的货源隐向量不同权重。司机对货源的行为可以包括司机对货源的浏览、点击、下单等。不同的行为可以赋予不同的权重,例如,下单行为的权重大于点击行为的权重大于浏览行为的权重。确定不同的权重后,依据确定的权重对货源隐向量加权求和204生成第一货源向量205。具体而言,当有两个货源,第一货源有货源信息A1和货源信息B1、第二货源有货源信息A2和货源信息B2时,加权求和获得的第一货源向量205为A1*w1+A2*w2+B1*w1+B2*w2。其中,A1、B1、A2、B2为对应的货源隐向量,w1为司机对第一货源的行为的权重,w2为司机对第一货源的行为的权重。在另一个实施例中,当有两个货源,第三货源有货源信息A3和货源信息B3(对应货源隐向量C3)、第四货源有货源信息A4和货源信息B4(对应货源隐向量C4)时,加权求和获得的第一货源向量205为C3*w3+C4*w4。其中,w3为司机对第三货源的行为的权重,w4为司机对第四货源的行为的权重。
获得第一货源向量205后,将第一货源向量205与司机属性206拼接生成输入向量。司机属性206可以包括司机的年龄、性别、车辆信息等等。此处所述的司机属性206为向量化的司机属性206。向量化的方式可以包括word2vec、GloVe或者FastText等,本发明并非以此为限。司机属性206可以采用与货源信息201相同的方式向量化,也可采用与货源信息201不同的方式向量化,本发明并非以此为限。
然后,将所述输入向量输入第一循环神经网络模型207。第一循环神经网络模型207为经过历史数据训练的模型。历史数据的采集、生成和处理与当前数据的采集、生成和处理相同。所述第一循环神经网络模型可以采用ReLU作为激活函数。
然后,将所述第一循环神经网络模型207的输出向量作为司机隐向量208。最后,利用司机隐向量在货源隐向量208中搜索,并通过归一化指数函数209(实际上是有限项离散概率分布的梯度对数归一化)得到待推荐的货源列表210。具体而言,所述用司机隐向量208在货源隐向量203中搜索,得到待推荐的货源列表210的步骤可以包括:计算所述司机隐向量208与各货源隐向量203的距离;根据距离与司机隐向量最近的N个货源,生成待推荐的货源列表210。N为大于0的整数。N可以取10、50、100等等,本发明并非以此为限。
由此,本发明多次结合司机的行为,例如结合司机的行为生成货源隐向量、结合司机的行为赋予货源隐向量不同的权重、将货源向量和司机属性拼接为输入向量,并根据最后获得的司机隐向量,到货源隐向量中进行搜索以获得货源列表,货源列表中的货源是和该司机之前操作过的货源非常相似的,由此,除了获得稠密的货源向量的表达以提高模型的训练和处理效率之外,还可以将司机与货源信息紧密结合,提高模型的准确度。
图3示出了根据本发明实施例的货源信息的数据降维装置的示意图。货源信息的数据降维装置300包括标准化模块310、转换模块320、权重模块330、加权模块340、拼接模块350、输入模块360、输出模块370及搜索模块380。
标准化模块310用于对多个货源的货源信息标准化;
转换模块320用于将标准化的货源信息转换为货源隐向量;
权重模块330用于根据司机第一时间段内的对货源的行为,赋予货源的货源隐向量不同权重;
加权模块340用于依据确定的权重对货源隐向量加权求和生成第一货源向量;
拼接模块350用于将第一货源向量与司机属性拼接生成输入向量;
输入模块360用于将所述输入向量输入第一循环神经网络模型;
输出模块370用于将所述第一循环神经网络模型的输出向量作为司机隐向量;以及
搜索模块380用于利用司机隐向量在货源隐向量中搜索,得到待推荐的货源列表。
在本发明的示例性实施方式的货源信息的数据降维装置中,一方面,通过隐向量的方式把货源数据降维,进而得到了货源的一个稠密向量表示;另一方面,通过对降维的货源数据作为向量距离的计算对象来获得待推荐的货源列表,提高预测准确率,同时加快模型训练的效率。
图3仅仅是示意性的示出本发明提供的货源信息的数据降维装置300,在不违背本发明构思的前提下,模块的拆分、合并、增加都在本发明的保护范围之内。
图4示出了根据本发明具体实施例的货源信息的数据降维装置的示意图。货源信息的数据降维装置300与图3所示的货源信息的数据降维装置300结构相同,都包括标准化模块310、转换模块320、权重模块330、加权模块340、拼接模块350、输入模块360、输出模块370及搜索模块380。
在本实施例中,转换模块320将标准化的货源信息输入第二循环神经网络模型420,并将所述第二循环神经网络模型420的输出作为货源隐向量。具体而言,转换模块320还根据司机第二时间段(例如,10分钟内、30分钟内等)内的对货源的行为关联该货源的货源信息输入所述第二循环神经网络模型420。司机对货源的行为可以包括司机对货源的浏览、点击、下单等。该第二循环神经网络模型420可以是长短期记忆网络。
输入模块360将所述输入向量输入第一循环神经网络模型410。第一循环神经网络模型410为经过历史数据训练的模型。历史数据的采集、生成和处理与当前数据的采集、生成和处理相同。所述第一循环神经网络模型410可以采用ReLU作为激活函数。输出模块370将所述第一循环神经网络模型410的输出向量作为司机隐向量。
以上仅仅是示意性地描述了本发明的多个实施方式。在不违背本发明构思的前提下,不同实施方式的组合、拆分、模块的组合/拆分/增加/省略、步骤的组合/拆分/增加/省略都在本发明的保护范围之内。
在本发明的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被例如处理器执行时可以实现上述任意一个实施例中所述电子处方流转处理方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
参考图5所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品700,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在租户计算设备上执行、部分地在租户设备上执行、作为一个独立的软件包执行、部分在租户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到租户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
在本发明的示例性实施例中,还提供一种电子设备,该电子设备可以包括处理器,以及用于存储所述处理器的可执行指令的存储器。其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一个实施例中所述电子处方流转处理方法的步骤。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图6来描述根据本发明的这种实施方式的电子设备500。图6显示的电子设备500仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备500以通用计算设备的形式表现。电子设备500的组件可以包括但不限于:至少一个处理单元510、至少一个存储单元520、连接不同系统组件(包括存储单元520和处理单元510)的总线530、显示单元540等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元510执行,使得所述处理单元510执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元510可以执行如图1所示的步骤。
所述存储单元520可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)5201和/或高速缓存存储单元5202,还可以进一步包括只读存储单元(ROM)5203。
所述存储单元520还可以包括具有一组(至少一个)程序模块5205的程序/实用工具5204,这样的程序模块5205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线530可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备500也可以与一个或多个外部设备600(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得租户能与该电子设备500交互的设备通信,和/或与使得该电子设备500能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口550进行。并且,电子设备500还可以通过网络适配器560与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器560可以通过总线530与电子设备500的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备500使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明实施方式的上述电子处方流转处理方法。
相比现有技术,本发明的优势在于:
一方面,通过隐向量的方式把货源数据降维,进而得到了货源的一个稠密向量表示;另一方面,通过对降维的货源数据作为向量距离的计算对象来获得待推荐的货源列表,提高预测准确率,同时加快模型训练的效率。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由所附的权利要求指出。